Количество информации. Формулы Хартли и Шеннона.
(**)
Данное выражение открывает возможность численного измерения количества информации, поскольку оценивать энтропию умеем. Из него легко получить ряд следствий:
Следствие 1 . Поскольку единицей измерения энтропии является бит, то в этих же единицах может быть измерено количество информации.
Следствие 2. Пусть опыт a = В, т.е.
просто произведен опыт В. Поскольку он несет полную информацию о себе
самом, неопределенность его исхода полностью снимается, т.е. =
0. Тогда
, т.е. можно считать, что энтропия равна
информации относительно опыта, которая содержится в нем самом.
Можно построить уточнение: энтропия опыта равна той информации, которую получаем в результате его осуществления.
Отметим ряд свойств информации:
1. > 0, причем
= 0 тогда и только тогда, когда опыты a и В независимы.
2. =
, т.е. информация симметрична
относительно последовательности опытов.
3. Следствие 2 и
представление энтропии в виде позволяют записать:
(1)
т.е. информация опыта равна среднему значению количества информации, содержащейся в каком-либо одном его исходе.
Пример Игра «Уеадай-ка-4». Некто задумал целое число в интервале от 0 до 3. Наш опыт состоит в угадывании этого числа. На наши вопросы Некто может отвечать лишь «Да» или «Нет». Какое количество информации должны получить, чтобы узнать задуманное число, т.е. полностью снять начальную неопределенность? Как правильно построить процесс угадывания?
Исходами в данном случае являются: А1 — «задуман 0», Аг - «задумана 1",А3 - «задумана 2», A4 - "задумана 3». Конечно, предполагается, что вероятности быть задуманными у всех чисел одинаковы. Поскольку n = 4, следовательно, p(Ai) = 1/4, log2 р(Ai) = -2 и I = 2 бит. Таким образом, для полного снятия неопределенности опыта (угадывания задуманного числа) нам необходимо 2 бит информации. Теперь выясним, какие вопросы необходимо задать, чтобы процесс угадывания был оптимальным, т.е. содержал минимальное их число.
Здесь удобно воспользоваться так называемым выборочным каскадом.
Для решения задачи достаточно 2-х вопросов независимо от того, какое число было задумано. Совпадение между количеством информации и числом вопросов с бинарными ответами неслучайно,
Количество информации численно равно числу вопросов с равновероятными бинарными вариантами ответов, которые необходимо задать, чтобы полностью снять неопределенность задачи.
В рассмотренном примере два полученных ответа в выборочном каскаде полностью сняли начальную неопределенность. Подобная процедура позволяет определить количество информации в любой задаче, интерпретация которой может быть сведена к парному выбору. Например, определение символа некоторого алфавита, использованного для представления сообщения. Приведенное утверждение перестает быть справедливым в том случае, если каждый из двух возможных ответов имеет разную вероятность.
Легко получить следствие формулы (1) для случая, когда все п исходов равновероятны. В этом случае все и, следовательно,
(2)
Эта формула была выведена в 1928 г. американским инженером Р. Хартли и носит его имя. Она связывает количество равновероятных состояний (п) и количество информации в сообщении (I), что любое из этих состояний реализовалось. Ее смысл в том, что, если некоторое множество содержит п элементов и х принадлежит данному множеству, то для его выделения (однозначной идентификации) среди прочих требуется количество информации, равное log2п.
Частным случаем применения формулы (2) является ситуация, когда n = 2k; подставляя это значение в (2), очевидно, получим:I= k бит. (3)
Попытаемся понять смысл полученных результатов. Необходимо выделить ряд моментов.
1. Выражение (1) является статистическим определением понятия «информация», поскольку в него входят вероятности возможных исходов опыта. По сути дается операционное определение новой величины, т.е. устанавливается процедура (способ) измерения величины. Как отмечалось ранее, в науке (научном знании) именно такой метод введения новых терминов считается предпочтительным, поскольку то, что не может быть измерено, не может быть проверено и, следовательно, заслуживает меньшего доверия.
Выражение (**) можно интерпретировать следующим образом: если начальная энтропия опыта Н, а в результате сообщения информации I энтропия становится равной Н2 (очевидно, H1 > H2), то I= H1 - H2
т.е. информация
равна убыли энтропии. В частном случае, если изначально равновероятных
исходов было n1, а в результате передачи информации I неопределенность
уменьшилась, и число исходов стало n2(очевидно, n2< n1), то из (2) легко
получить:
Таким образом, можно дать следующее определение:
Информация - это содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с ним энтропии является количественной мерой информации.
В случае равновероятных исходов информация равна логарифму отношения числа возможных исходов до и после (получения сообщения).
2. Как уже было сказано, в статистической механике энтропия характеризует неопределенность, связанную с недостатком информации о состоянии системы. Наибольшей оказывается энтропия у равновесной полностью беспорядочной системы - о ее состоянии наша осведомленность минимальна. Упорядочение системы (наведение какого-то порядка) связано с получением некоторой дополнительной информации и уменьшением энтропии В теории информации энтропия также отражает неопределенность, однако, это неопределенность иного рода - она связана с незнанием результата опыта с набором случайных возможных ис ходов. Таким образом, хотя между энтропией в физике и информатике много общего, необходимо сознавать и различие этих понятий.
Следствием аддитивности энтропии независимых опытов оказывается аддитивность информации.
3. Вернемся к утверждению о том, что количество информации может быть измерено числом вопросов с двумя равновероятными ответами. Означает ли это, что I должна быть всегда величиной целой?
Величина I, определяемая описанным выше образом, показывает, сколько в среднем необходимо сделать парных выборов для установления результата (полного снятия неопределенности), если опыт повторить многократно (n -> °°).
|
5. Легко показать, что при р -> 0 и при р-> 1 функция I(р) -> 0. Ситуация может быть проиллюстрирована графиком, из которого, в частности, видно, что кривая симметрична относительно р = 0,5 и достигает максимума при этом значении. Если теперь считать, что событие 1 - это утвердительный ответ на бинарный вопрос, а событие 2 - отрицательный, то приходим к заключению: Ответ на бинарный вопрос может содержать не более 1 бит информации; информация равна 1 бит только для равновероятных ответов; в остальных случаях она меньше 1 бит.
6. Нами рассмотрен вероятностный подход к определению количества информации. Он не является единственным. Количество информации можно связать с числом знаков в дискретном сообщении - такой способ измерения называется объемным. Можно доказать, что при любом варианте кодирования информации Iвер<Iоб.
7.Объективность информации. При использовании людьми одна и та же информация может иметь различную оценку с точки зрения значимости (важности, ценности). Определяющим в такой оценке оказывается содержание (смысл) сообщения для конкретного потребителя. Однако при решении практических задач технического характера содержание сообщения может не играть роли. Например, задача телеграфной (и любой другой) линии связи является точная и безошибочная передача сообщения без анализа того, насколько ценной для получателя оказывается связанная с ним информация. Техническое устройство не может оценить важности информации - его задача без потерь передать или сохранить информацию. Выше определили информацию как результат выбора. Такое определение не зависит от того, кто и каким образом осуществляет выбор, а связанная с ним количественная мера информации - одинаковой для любого потребителя. Следовательно, появляется возможность объективного измерения информации, при этом результат измерения - абсолютен. Это служит предпосылкой для решения технических задач. Нельзя предложить абсолютной и единой для всех меры ценности информации. С точки зрения формальной информации страница из учебника информатики или из романа «Война и мир» и страница, записанная бессмысленными значками, содержат одинаковое количество информации. Количественная сторона информации объективна, смысловая - нет. Однако, жертвуя смысловой (семантической) стороной информации, получаем объективные методы измерения ее количества, а также обретаем возможность описывать информационные процессы математическими уравнениями. Это является приближением и в то же время условием применимости законов теории информации к анализу и описанию информационных процессов.
9. Информация и знание. На бытовом уровне, в науках социальной направленности, например в педагогике «информация» отождествляется с «информированностью», т.е. человеческим знанием, которое, в свою очередь, связано с оценкой смысла информации. В теории информации же, напротив, информация является мерой нашего незнания чего-либо (но что в принципе может произойти); как только это происходит и узнаем результат, информация, связанная с данным событием, исчезает.
Для оценки информации, связанной с выбором одного знака алфавита
с учетом неравной вероятности их появления в сообщении (текстах) можно
воспользоваться формулой .Из нее, в частности, следует,
что если рi- вероятность (относительная
частота)
знака номер i данного алфавита из N знаков, то среднее количество информации,
приходящейся на один знак, равно:
. Это и есть
знаменитая формула К.Шеннона.
Материалы на данной страницы взяты из открытых источников либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.