Презентация к лекции по информатике на тему "Измерение объёма текстовой информации"

  • Презентации учебные
  • ppt
  • 30.04.2026
Публикация на сайте для учителей

Публикация педагогических разработок

Бесплатное участие. Свидетельство автора сразу.
Мгновенные 10 документов в портфолио.

Иконка файла материала Измерение текстовой информации.ppt

Информатика

Измерение объёма текстовой информации

Автор: Максаков С.А.

Единицы измерения информации

БИТ – это минимальная единица измерения информации (информационный вес символа двоичного алфавита)
БАЙТ – это последовательность из 8 бит, обрабатываемая в ЭВМ как одно целое

Единицы измерения информации

Единицы измерения информации

БИТ

БАЙТ

КИЛОБАЙТ

МЕГАБАЙТ

ГИГАБАЙТ

В более крупные единицы – делить

В более мелкие единицы – умножать

× 8

× 1024

× 1024

× 1024

÷ 8

÷ 1024

÷ 1024

÷ 1024

Единицы измерения информации

Средний мозг взрослого человека способен хранить эквивалент
2,5 миллиона гигабайт
цифровой памяти

Единицы измерения информации

Заполнить пропуски:
5 Кбайт = __байт = __бит

Пример:

бит

байт

Кбайт

× 8

× 1024

5 Кбайт = 5 × 1024 байт = 5120 байт

5120 байт = 5120 × 8 бит = 40960 бит

Единицы измерения информации

Заполнить пропуски:
12288 бит = __Кбайт = __байт

Пример:

бит

байт

Кбайт

÷ 8

÷ 1024

12288 бит = 12288 ÷ 8 байт = 1536 байт

1536 байт = 1536 ÷ 1024 Кбайт = 1,5 Кбайт

Подходы к измерению информации

Последовательность знаков (с точки зрения техники)

Снятая неопределенность (с точки зрения человека)

Количественная оценка содержания неопределенности в сообщении

Подсчет количества символов в сообщении с учетом информационного веса одного символа

Алфавитный подход

Алфавит – это упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.

Мощность алфавита (N) – количество символов, используемых в алфавите.

 

 

формула Ральфа Хартли (1928 г.)

Объём текстовой информации

I = k ⋅ i

Формула объёма текстовой информации:

kколичество символов в текстовом сообщении

i информационный вес одного символа в используемом алфавите (бит)

1

2

3

4

5

6

7

8

9

10

2

4

8

16

32

34

128

256

512

1024

Объём текстовой информации

Пример:

Сообщение, записанное буквами 32-символьного алфавита, содержит 140 символов. Определить объём текстового сообщения.

Дано:
N = 32
k = 140

I = ?

Решение:
I = k ⋅ i
N = 2i
32 = 2i, i = 5 ( в соответствии с таблицей степеней числа 2)
I = k ⋅ i = 140 ⋅ 5 = 700 бит

Ответ: 700 бит

Объём текстовой информации

Пример:

Определить количество информации (в Кбайт) в 10 страницах текста (на каждой странице 32 строки по 64 символа) при использовании алфавита из 256 символов.

Дано:
N = 256
k = 10*32*64

I = ?

Решение:
Информационная ёмкость символа:
N = 256 = 28 → i = 8 бит = 1 байт
Количество символов на странице:
32·64 = 25 ·26 = 211
Общее количество символов: k = 10·211
Информационный объём сообщения:
I = k · i = 10·211·1 байт = 20 Кбайт
Ответ: 20 Кбайт

Содержательный подход

Информация – это уменьшение неопределенности наших знаний

Сообщение, уменьшающее неопределенность знания в два раза, несет 1 бит информации.

В содержательном подходе объём информации определяется через неопределенность знаний с учётом вероятности

Содержательный подход

В сообщении могут содержаться сведения о том, что произошло одно из N равновероятных событий

Количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, можно определить из формулы Хартли:

 

 

формула Хартли (1928 г.)

Содержательный подход

При игре в кости используется кубик с шестью гранями. Сколько бит информации получает игрок при каждом бросании кубика?

Дано:
N = 6

i = ?

 

Пример:

1

2

3

4

2

4

8

16

Содержательный (вероятностный) подход

Вероятность случайного события (p) – это отношение числа благоприятствующих событию исходов m к общему числу исходов n (может изменяться от 0 до 1)

 

Зная вероятность p событий, можно определить количество информации i в сообщении о каждом из них из формулы (формула Шеннона)

 

В корзине лежат 8 чёрных шаров и 24 белых шара. Сколько бит информации несет сообщение о том, что достали чёрный шар?

Дано:
m1 = 8
m2 = 24

i = ?

 

Пример:

Содержательный (вероятностный) подход

Скачивание материала доступно только для авторизованных пользователей.