ЛЕКЦИЯ №4
Тема: Информационная мера Шеннона
1. ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА
1.1. Количество информации и избыточность
1.2. Энтропия непрерывных сообщений
2. УСЛОВНАЯ ЭНТРОПИЯ И ВЗАИМНАЯ ИНФОРМАЦИЯ
2.1. Дисктретные системы передачи информации
2.2. Непрерывные системы передачи информации
Слайды к лекции №4
1. Условная энтропия и взаимная информация.
2. Количество информации и избыточность
3. Аддитивность информационной меры
Лекция №4
Тема: ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА.
1. ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА.
1.1. Количество информации и избыточность.
Дискретные системы связи - системы, в которых как реализации сообщения, так и реализации сигнала представляют собой последовательности символов алфавита, содержащего конечное число элементарных символов.
Пусть и
-
случайные величины с множествами возможных значений
Количество информации при наблюдении случайной величины
с распределением вероятностей
задается формулой Шеннона:
Единицей измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения.
При равномерном
распределении количество информации
задается формулой Хартли:
.
Справедливы следующие соотношения:
1)
2)
3) если
и
-
независимы.
Избыточностью называется
Рассмотрим примеры.
Пример 1. Имеются два источника информации, алфавиты и распределения вероятностей которых заданы матрицами:
Определить, какой источник дает большее количество информации, если
1) 2)
Решение. Для первого
источника при равновероятном распределении воспользуемся формулой Хартли. Для и
имеем
Следовательно, источник с тремя символами дает большее количество информации. Для второго случая воспользуемся формулой Шеннона:
с учетом условия задачи
имеем
С другой стороны,
Поскольку
то
Пример 2. Источник
сообщений выдает символы из алфавита
с вероятностями
Найти
количество информации и избыточность.
Решение. По формуле Шеннона
(бит).
По определению избыточности
1.2. Энтропия непрерывных сообщений
Непрерывные системы
передачи информации - системы, в которых как реализации сообщения, так и
реализации сигнала на конечном временном интервале представляют
собой некоторые непрерывные функции времени.
Пусть - реализации непрерывного
сообщения на входе какого-либо блока схемы связи,
-
реализация выходного сообщения (сигнала),
-
плотность вероятности ансамбля входных сообщений,
-
плотность вероятности ансамбля выходных сообщений
Формулы для энтропии непрерывных сообщений получаются
путем обобщения формул для энтропии дискретных сообщений. Если
- интервал квантования (точность
измерения), то при достаточно малом
энтропия непрерывных
сообщений
где По аналогии
Пример 1. По линии связи передаются непрерывные
амплитудно-модулированные сигналы распределенные
по нормальному закону с математическим ожиданием
и
дисперсией
Определить энтропию сигнала
при точности его измерения
Решение. По условию плотность вероятности
сигнала
Подставляя числовые значения, получаем
дв.
ед.
2. УСЛОВНАЯ ЭНТРОПИЯ И ВЗАИМНАЯ ИНФОРМАЦИЯ
2.1. Дисктретные системы передачи информации.
Условной энтропией величины при наблюдении величины
называется
Справедливы соотношения:
Взаимной информацией величин и
называется
Справедливы следующие соотношения:
Если и
независимы, то
=0.
При расчетах условной энтропии и взаимной информации удобно пользоваться следующими соотношениями теории вероятностей:
1) теорема умножения вероятностей ;
2) формула полной вероятности
3) формула Байеса
Рассмотрим пример.
Пример 1. Дана матрица
,
.
Определить:
Решение. По формуле полной вероятности имеем:
Следовательно,
По теореме умножения
Следовательно,
Аналогично
2.2. Непрерывные системы передачи информации.
Пусть -
реализации непрерывного сообщения на входе какого-либо блока схемы связи,
- реализация выходного сообщения
(сигнала),
- одномерная плотность вероятности
ансамбля входных сообщений,
- одномерная
плотность вероятности ансамбля выходных сообщений,
-
совместная плотность вероятности,
- условная
плотность вероятности
при известном Тогда для
количества информации
справедливы следующие
соотношения:
,
Здесь -
взаимная информация между каким-либо значением
входного
и значением
выходного сообщений,
-
средние значения условной информации,
-
полная средняя взаимная информация.
Условная энтропия определяется по формуле:
Когда и
статистически связаны между собой,
то
При независимых и
Полная средняя взаимная информация определяется формулой:
Рассмотрим пример.
Пример 1. На вход
приемного устройства воздействует колебание где
сигнал
и помеха
-
независимые гауссовские случайные процессы с нулевыми математическими
ожиданиями и дисперсиями, равными соответственно
и
Определить: 1) количество
взаимной информации которое содержится в
каком-либо значении принятого колебания
о
значении сигнала
2) полную среднюю
взаимную информацию
Решение. По условию
задачи представляет собой сумму независимых
колебаний
и
которые
имеют нормальные плотности вероятности. Поэтому
1. Количество информации определяется по формуле:
2. Полная средняя взаимная информация:
где - знак усреднения по
множеству.
Таким образом,
дв.
ед.
Материалы на данной страницы взяты из открытых источников либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.