Слайды к лекции №4
1. Условная энтропия и взаимная информация.
2. Количество информации и избыточность
3. Аддитивность информационной меры
Условная энтропия и взаимная информация.
Пусть
и
-
случайные величины с множеством возможных значений
![]()
Условной энтропией величины
при наблюдении
величины
называется
![]()
Справедливы соотношения:
![]()
![]()
Взаимной информацией величин
и
называется
![]()
Справедливы следующие соотношения:
![]()
![]()
![]()
![]()
Если
и
независимы, то
=0.
Пример 1.
Дана матрица
,
.
Определить:
![]()
Решение.
По формуле полной вероятности имеем:
![]()
![]()
Следовательно,
![]()
По теореме умножения
![]()
Следовательно,
![]()
Аналогично
![]()
Количество информации и избыточность
Количество информации
при наблюдении случайной величины
с распределением вероятностей
задается формулой Шеннона:
![]()
Единицей измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения.
При равномерном распределении
количество информации задается
формулой Хартли:
![]()
Справедливы следующие соотношения:

если
и
-
независимы
Избыточностью называется ![]()
|
Пусть
поэтому
|
Рассмотрим два источника информации:
![]()
![]() |
![]()
Мера Хартли: ![]()
|
Пусть А и В независимы,
тогда ![]()
H(C)=H(A)+H(B)

Материалы на данной страницы взяты из открытых источников либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.