Единицы измерения информации
БИТ – это минимальная единица измерения информации (информационный вес символа двоичного алфавита)
БАЙТ – это последовательность из 8 бит, обрабатываемая в ЭВМ как одно целое
Единицы измерения информации
БИТ
БАЙТ
КИЛОБАЙТ
МЕГАБАЙТ
ГИГАБАЙТ
В более крупные единицы – делить
В более мелкие единицы – умножать
× 8
× 1024
× 1024
× 1024
÷ 8
÷ 1024
÷ 1024
÷ 1024
Единицы измерения информации
Средний мозг взрослого человека способен хранить эквивалент
2,5 миллиона гигабайт
цифровой памяти
Единицы измерения информации
Заполнить пропуски:
5 Кбайт = __байт = __бит
Пример:
бит
байт
Кбайт
× 8
× 1024
5 Кбайт = 5 × 1024 байт = 5120 байт
5120 байт = 5120 × 8 бит = 40960 бит
Единицы измерения информации
Заполнить пропуски:
12288 бит = __Кбайт = __байт
Пример:
бит
байт
Кбайт
÷ 8
÷ 1024
12288 бит = 12288 ÷ 8 байт = 1536 байт
1536 байт = 1536 ÷ 1024 Кбайт = 1,5 Кбайт
Подходы к измерению информации
Последовательность знаков (с точки зрения техники)
Снятая неопределенность(с точки зрения человека)
Количественная оценка содержания неопределенности в сообщении
Подсчет количества символов в сообщении с учетом информационного веса одного символа
Алфавитный подход
Алфавит – это упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.
Мощность алфавита (N) – количество символов, используемых в алфавите.
формула Ральфа Хартли (1928 г.)
Объём текстовой информации
I = k ⋅ i
Формула объёма текстовой информации:
k – количество символов в текстовом сообщении
i – информационный вес одного символа в используемом алфавите (бит)
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | |
2 | 4 | 8 | 16 | 32 | 34 | 128 | 256 | 512 | 1024 |
Объём текстовой информации
Пример:
Сообщение, записанное буквами 32-символьного алфавита, содержит 140 символов. Определить объём текстового сообщения.
Дано:
Решение:
I = k ⋅ i
N = 2i
Объём текстовой информации
Пример:
Определить количество информации (в Кбайт) в 10 страницах текста (на каждой странице 32 строки по 64 символа) при использовании алфавита из 256 символов.
Дано:
Решение:
Содержательный подход
Информация – это уменьшение неопределенности наших знаний
Сообщение, уменьшающее неопределенность знания в два раза, несет 1 бит информации.
В содержательном подходе объём информации определяется через неопределенность знаний с учётом вероятности
Содержательный подход
В сообщении могут содержаться сведения о том, что произошло одно из N равновероятных событий
Количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, можно определить из формулы Хартли:
формула Хартли (1928 г.)
Содержательный подход
При игре в кости используется кубик с шестью гранями. Сколько бит информации получает игрок при каждом бросании кубика?
Дано:
Пример:
1 | 2 | 3 | 4 | |
2 | 4 | 8 | 16 |
Содержательный (вероятностный) подход
Вероятность случайного события (p) – это отношение числа благоприятствующих событию исходов m к общему числу исходов n (может изменяться от 0 до 1)
Зная вероятность p событий, можно определить количество информации i в сообщении о каждом из них из формулы (формула Шеннона)
Материалы на данной страницы взяты из открытых источников либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.