2019 г
Пояснительная записка
Данная методическая разработка предназначена для студентов любой формы обучения по предмету: Информатика. Может использована педагогами для проведения уроков по данной теме, для организации самостоятельной работы обучающихся.
Учебно-методическая разработка содержит весь необходимый материал для проведения уроков информатики по теме “Подходы к понятию информации и измерению информации”: теоретический материал, разбор решения типовых задач, задания для самостоятельного изучения и закрепления новых знаний и умений.
Цель методической разработки: закрепление навыков решения заданий по информатике с использованием приемов и методов измерения количества информации: алфавитного и вероятностного.
Подходы к понятию информации и измерению информации
Информатика - это наука об организации процессов получения, хранения, обработки и передачи информации в системах различной природы. Информатика также изучает возможность автоматизации информационных процессов компьютерными средствами. Синонимом слова "компьютер" является "электронно-вычислительная машина" или ЭВМ. Персональный компьютер - один из видов компьютеров наряду с многопроцессорными и мультисистемными компьютерами. Сущность же компьютера - это транзисторная технология, которая реализована во всей современной радиотехнике. Более того, процессор как основа компьютера также не является уникальным явлением, так как процессоры сегодня могут иметь как телефоны, телевизоры, так и другие бытовые устройства.
Информация (в переводе с латинского informatio - разъяснение, изложение) - это ключевое понятие современной науки, которое стоит в одном ряду с такими как "вещество" и "энергия". Существует три основные интерпретации понятия "информация".
Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.
Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.
Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п.
Существуют несколько концепций (теорий) информации.
Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем.
Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым.
Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная, "работающая" часть знаний. Представитель этой концепции В.Г. Афанасьев.
В настоящее время термин информация имеет глубокий и многогранный смысл. Во многом, оставаясь интуитивным, он получает разные смысловые наполнения в разных отраслях человеческой деятельности:
· в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами;
· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;
· в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность;
· в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;
· в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее...
Такое разнообразие подходов не случайность, а следствие того, что выявилась необходимость осознанной организации процессов движения и обработки того, что имеет общее название - информация.
Информация и знания. Человек получает информацию из окружающего мира с помощью органов чувств, анализирует ее и выявляет существенные закономерности с помощью мышления, хранит полученную информацию в памяти. Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.).
Т.о., с точки зрения процесса познания информация может рассматриваться как знания. Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.
Уменьшение неопределенности знаний. Подход к информации как мере уменьшения неопределенности знаний позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количества информации более подробно на конкретных примерах.
Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из 2-х положений: «орел» или «решка».
Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. Например, если бросить монету 10 раз, то «орел» может выпасть 7 раз, «решка» - 3 раза. Если бросить монету 100 раз, то «орел» может выпасть 60 раз, «решка» - 40. Если бросить 1000 раз, то «орел» может выпасть 520 раз, «решка» - 480 и т.д. В итоге при очень большой серии опытов количество выпадений «орла» и «решки» практически сравняются.
Перед броском существует неопределенность наших знаний (возможны 2 события), и как упадет монета, предсказать невозможно. После броска наступает полная определенность, т.к. мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в 2 раза, т.к. до броска мы имеем два вероятных события, а после броска – только одно, т.е. в два раз меньше.
В окружающей действительности достаточно часто встречаются ситуации, когда может произойти некоторое количество равновероятных событий. Так, при бросании равносторонней четырехгранной пирамиды существует 4 равновероятных события, а при бросании шестигранного игрального кубика – 6 равновероятных событий.
Единицы измерения количества информации. Для количественного выражения любой величины необходимо определить единицу измерения. За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в 2 раза. Такая единица названа «бит». Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в 2 раза и следовательно полученное количество информации равно 1 биту.
Например, 1 бит информации получает человек, когда он узнает, опаздывает с прибытием нужный ему поезд или нет, был ночью мороз или нет и т.д.
В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом.
1 байт = 8 бит.
1 Кб=1024 байта=210 байта.
1Мб=1024 Кб=220 байта.
1Гб=1024 Мб=230 байта.
1Тб=1024 Гб=240 байта.
Методы измерения количества информации: вероятностный и алфавитный.
Единицей измерения количества информации является бит. 1 бит – количество информации, содержащейся в сообщении, которое в двое уменьшает неопределенность знаний о чем либо. Связь между количеством возможных событий N и количеством информации I определяется формулой Хартли: N=2I.
Например, пусть шарик находится в одной из 4-х коробок. Т.о, имеется 4 равновероятных события (N=4). Тогда по формуле Хартли 4=2I , I=2.Т.е., сообщение о том, в какой именно коробке находится шарик, содержит 2 бита информации.
N=2I
N – количество независимых кодируемых значений.
I – разрядность двоичного кодирования.
Алфавитный подход.
При алфавитном подходе к определению количества информации отвлекаются от содержания (смысла) информации и рассматривают ее как последовательность знаков определенной знаковой системы. Набор символов языка (алфавит) можно рассматривать как различные возможные события. Тогда, если считать, что появление символов в сообщении равновероятны, по формуле Хартли можно рассчитать, какое количество информации несет каждый символ:
Например,
в русском языке 32 буквы (буква ё обычно не используется), т.е. количество
событий будет равно 32. Тогда информационный объем 1-го символа будет равен: битов.
Если
N не является целой степенью 2, то
число не является целым
числом, и для I надо выполнять
округление в большую сторону. При решении задач в таком случае I
можно найти как
,
где
- ближайшая к N
степень двойки, такая, что
.
Например,
в английском языке 26 букв. Информационный объем 1-го символа можно найти так: битов.
Если
количество символов алфавита равно N,
а количество символов в записи сообщения равно M,
то информационный объем данного сообщения вычисляется по формуле: .
Задача № 1. Световое табло состоит из лампочек, каждая из которых может находиться в одном из 2-х состояний («вкл» или «выкл»). Какое наименьшее количество лампочек должно находиться на табло, чтобы с его помощью можно было передать 50 различных сигналов?
Решение:
С помощью N лампочек, каждая из
которых может находиться в одном из 2-х состояний, можно закодировать 2N
сигналов. пяти
лампочек недостаточно, а 6 хватит.
Ответ. 6 лампочек.
Задача № 2. Метереологическая станция ведет наблюдение за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100, которое записывается при помощи минимально возможного количества бит. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений.
Решение:
В данном случае алфавитом является множество целых чисел от 0 до 100. Всего
таких значений 101. Поэтому информационный объем результатов одного измерения . Это значение не будет
целочисленным. Заменим число 101 ближайшей к нему степенью двойки, большей 101.
Это число 128=27. Принимаем для одного измерения
битов. Для 80 измерений
общий информационный объем равен: 80*7=560 битов=70 байтов.
Ответ. 70 байтов.
Вероятностный подход.
Вероятностный подход к измерению количества информации применяют, когда возможные события имеют различные вероятностные реализации.
В этом случае количество информации определяют по формуле Шеннона:
,
где I – количество информации
N – количество возможных событий
Pi – вероятность i-го события.
Например,
пусть при бросании несимметричной четырехгранной пирамиды вероятности отдельных
событий будут равны: .
Тогда количество информации, которое будет получено после реализации одного из них, можно вычислить по формуле Шеннона:
бита.
Скорость передачи информации и пропускная способность канала связи.
Прием (передача) информации может происходить с разной скоростью. Количество информации, передаваемое за единицу времени, есть скорость передачи информации или скорость информационного потока.
Скорость выражается в битах в секунду (бит/с) и кратных им Кбит/с и Мбит/с., а также в байт/с, Кбайт/с, Мбайт/с.
Максимальная скорость передачи информации по каналу связи называется пропускной способностью канала.
Пример: Скорость передачи данных через ADSL – соединение равна 256000 бит/с. Передача файла через данное соединение заняла 3 мин. Определите размер файла в килобайтах.
Решение: Размер файла можно вычислить, если умножить скорость передачи информации на время передачи. Выразим время в секундах: 3 мин = 3*60 = 180 с.
Выразим скорость в Кбайт/с: 256000 бит/с = (256000:8:1024) Кбайт/с.
Размер файла = (256000:8:1024) * (3*60) = 5625 Кбайт.
Задачи для решения
Задача 1: Какое количество
информации будет содержать зрительное сообщение о цвете вынутого шарика, если в
непрозрачном мешочке находится 50 белых, 25 красных, 25 синих шариков. Для
этого необходимо использовать следующую формулу где i
- это количество информации, р - вероятность события.
Вероятность события выражается в долях единицы и вычисляется по
формуле: где К — величина, показывающая, сколько раз произошло
интересующее нас событие, N — общее число возможных исходов какого-то
процесса.
1) всего шаров 50+25+25=100
2) вероятности шаров 50/100=1/2, 25/100=1/4, 25/100=1/4
3) I= -(1/2*log21/2 + ¼*log21/4 + ¼*log21/4) = -(1/2*(0-1) +1/4*(0-2) +1/4*(0-2)) = 1,5 бит
Количество
информации достигает max значения, если события
равновероятны, поэтому количество информации можно рассчитать по
формуле
Задача 2 В корзине лежит 16 шаров разного цвета. Сколько информации несет сообщение, что достали белый шар?
т.к. N = 16 шаров, то I = log2 N = log2 16 = 4 бит.
Упражнение (устно)
1) Какое количество информации будет получено при отгадывании числа из интервала:
- от 1 до 64 - от 1 до 61 - от 1 до 20.
2) Какое количество информации будет получено после первого хода в игре «крестики-нолики» на поле:
- 3x3 - 4x4.
3) Сколько могло произойти событий, если при реализации одного из них получилось 6 бит информации.
Задача 3 В розыгрыше лотереи участвуют 64 шара. Выпал первый шар. Сколько информации содержит зрительное сообщение об этом?
Задача 4 В игре «лото» используется 50 чисел. Какое количество информации несет выпавшее число?
Задача 5 Какое количество информации несет сообщение о том, что встреча назначена на 3 июля в 18.00 часов?
Задача 6 Вы угадываете знак зодиака вашего друга. Сколько вопросов вам нужно при этом задать? Какое количество информации вы получите?
Задача 7 В ящике лежат фигурки разной формы - треугольные и круглые. Треугольных фигурок в ящике 15. Сообщение о том, что из ящика достали фигуру круглой формы, несет 2 бита информации. Сколько всего фигурок было в ящике?
Задача 8 В ведерке у рыбака караси и щуки. Щук в ведерке 3. Зрительное сообщение о том, что из ведра достали карася, несет 1 бит информации. Сколько всего рыб поймал рыбак?
Задача 9 Частотный словарь русского языка - словарь вероятностей (частот) появления букв в произвольном тексте — приведен ниже. Определите, какое количество информации несет каждая буква этого словаря.
Символ |
Частота |
Символ |
Частота |
Символ |
Частота |
Символ |
Частота |
о |
0.090 |
в |
0.035 |
я |
0.018 |
ж |
0.007 |
е, ё |
0.072 |
к |
0.028 |
Ы, 3 |
0.016 |
ю, ш |
0.006 |
а, и |
0.062 |
м |
0.026 |
ь, ъ, б |
0.014 |
ц, щ, э |
0.003 |
т, н |
0.053 |
д |
0.025 |
ч |
0.013 |
Ф |
0.002 |
с |
0.045 |
п |
0.023 |
и |
0.012 |
|
|
Р |
0.040 |
У |
0.021 |
X |
0.009 |
|
|
Используя результат решения предыдущей задачи, определите количество информации в слове «КОМПЬЮТЕР».
Самостоятельная работа
по темам: «Измерение информации»
вариант № 1
1. Перевести 67893300 бит в Мбайт.
2. Перевести 0,031 Гбайт в биты.
3. Укажите формулы, которые используются при алфавитном подходе.
4. Определить информационный объем фразы: Мой дядя самых честных правил!
5. Какое количество информации будет получено при отгадывании числа из интервала: а) от 1 до 128, б) от 0 до 510.
6. В ящике лежат фигурки разной формы - треугольные и круглые. Треугольных фигурок в ящике 15. Сообщение о том, что из ящика достали фигуру круглой формы, несет 2 бита информации. Сколько всего фигурок было в ящике?
7. Дать определение «Скорость передачи информации»
8. Скорость передачи данных через ADSL – соединение равна 64000 бит/с. Передача файла через данное соединение заняла 5 мин. Определите размер файла в килобайтах.
9. Дайте определение понятию Кодирование.
10. Изобразите схематично представление двоичного кода
Самостоятельная работа
по темам: «Измерение информации»
вариант № 2
1. Перевести 89574500 бит в Мбайт.
2. Перевести 0,029 Гбайт в биты.
3. Укажите формулы, которые используются при вероятностном подходе.
4. Определить информационный объем фразы: Я хочу поступить в университет!
5. Какое количество информации будет получено при отгадывании числа из интервала: а) от 1 до 264, б) от 0 до 310.
6. В ведерке у рыбака караси и щуки. Щук в ведерке 3. Зрительное сообщение о том, что из ведра достали карася, несет 1 бит информации. Сколько всего рыб поймал рыбак?
7. Дать определение «Пропускная способность канала»
8. Скорость передачи данных через ADSL – соединение равна 512000 бит/с. Передача файла через данное соединение заняла 7 мин. Определите размер файла в килобайтах
9. Дайте определение понятию Декодирование.
10. Изобразите схематично представление двоичного кода
Список используемой литературы
1) Семакин И.Г., Хеннер Е.К., Информатика и ИКТ, 10-11 класс, 2012.
2) М.С. Цветкова, Л.С. Великович, «Информатика и ИКТ», Москва, 2013
3) Михеева Е.В. Информационные технологии в профессиональной деятельности. 2015 г.
Материалы на данной страницы взяты из открытых источников либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.