Раздел II «Информация и информационные процессы» Тема 2.1.
Оценка 4.9

Раздел II «Информация и информационные процессы» Тема 2.1.

Оценка 4.9
Занимательные материалы +2
doc
информатика
Взрослым
18.01.2017
Раздел II «Информация и информационные процессы» Тема 2.1.
Раздел II «Информация и информационные процессы» Тема 2.1. «Подходы к понятию ин-формации и измерению ин-формации. Информационные объекты различных видов. Универсальность дискретного (цифрового) представления информации». План 1. Термин «информация» 2. Подходы к измерению информации 3.Единицы измерения информации 2. Контрольные вопросы 1. Термин «информация» Подходы к понятию информации и измерению информации. Информационные объекты различных видов. Принципы обработки информации компьютером. С позиции человека информация – это содержание разных сообщений, это самые разнообразные сведения, которые человек получает из окружающего мира через свои органы чувств.
Раздел II «Информация и информационные процессы» Тема 2.1..doc
Раздел II «Информация и информационные процессы» Тема   2.1.   «Подходы   к   понятию   ин­формации   и   измерению   ин­ формации.   Информационные   объекты   различных   видов.   Универсальность дискретного (цифрового) представления информации». План 1. 2. 3.Единицы измерения информации 2. Контрольные вопросы Термин «информация» Подходы к измерению информации 1. Термин «информация» Подходы   к   понятию   информации   и   измерению   информации. Информационные   объекты   различных   видов.   Принципы   обработки   информации компьютером. С позиции человека информация – это содержание разных сообщений, это самые разнообразные сведения, которые человек получает из окружающего мира через свои органы чувств.   Компьютер   –   это   универсальный   программно   управляемый   автомат   для работы с информацией. Компьютер работает с двоичными кодами (1 и 0).  Термин «информация» начал широко употребляться с середины ХХ века. В наибольшей степени понятие информации обязано своим распространением двум научным направлениям: теории связи и кибернетике.   Автор теории связи Клод Шелдон, анализируя технические системы связи (телеграф, телефон, радио) рассматривал их как системы передачи информации. В таких   системах   информация   передается   в   виде   последовательностей   сигналов: электрических или электромагнитных.   Основатель   кибернетики   ^   Норберт   Винер   анализировал   разнообразные процессы   управления   в   живых   организмах   и   в   технических   системах.   Процессы управления рассматриваются в кибернетике как информационные процессы. ^   Информация   в   системах   управления   циркулирует   в   виде   сигналов, передаваемых по информационным каналам.   В   ХХ   веке   понятие   информация   повсеместно   проникает   в   науку. Нейрофизиология   (раздел   биологии)   изучает   механизмы   нервной   деятельности животного   и   человека.   Эта   наука   строит   модель   информационных   процессов, происходящих   в   организме.   Поступающая   извне   информация   превращается   в сигналы электрохимической  природы, которые от органов чувств передаются по нервным   волокнам   к   нейронам   (нервным   клеткам)   мозга.   Мозг   передает управляющую информацию в виде сигналов той же природы к мышечным тканям, управляя   органами   движения.   Описанный   механизм   хорошо   согласуется   с кибернетической моделью Н. Винера.   В   другой   биологической   науке   –   генетике   используется   понятие наследственной   информации,   заложенной   в   структуре   молекул   ДНК, присутствующих в ядрах клеток живых организмов (растений, животных, человека). Генетика доказала, что эта структура является своеобразным кодом, определяющим функционирование   всего   организма:   его   рост,   развитие,   патологии   и   т.д.   Через молекулы ДНК происходит передача наследственной информации от поколения к поколению. ^ Понятие информации относится к числу фундаментальных, т.е. является основополагающим   для   науки   и   не   объясняется   через   другие   понятия.   В   этом смысле   информация   встает   в   один   ряд   с   такими   фундаментальными   научными понятиями, как вещество, энергия, пространство, время. Осмыслением информации как фундаментального понятия занимается наука философия.   Согласно   одной   из   философских   концепций,   информация   является свойством   всего   сущего,   всех   материальных   объектов   мира.   Такая   концепция информации называется атрибутивной (информация – атрибут всех материальных объектов). Информация в мире возникла вместе со Вселенной. С такой широкой точки зрения информация проявляется в воздействии одних объектов на другие.   Другую философскую концепцию информации называют функциональной.   информация   появилась   лишь   с Согласно   функциональному   подходу, возникновением   жизни,   так   как   связана   с   функционированием   сложных самоорганизующихся   систем,   к   которым   относятся   живые   организмы   и человеческое   общество.   Можно   еще   сказать   так:   информация   –   это   атрибут, свойственный   только   живой   природе.   Это   один   из   существенных   признаков, отделяющих в природе живое от неживого.   Третья   философская   концепция   информации   –   антропоцентрическая, согласно   которой   информация   существует   лишь   в   человеческом   сознании,   в человеческом   восприятии.   Информационная   деятельность   присуща   только человеку, происходит в социальных системах. Создавая информационную технику, человек   создает   инструменты   для   своей   информационной   деятельности.   Можно сказать,   что   употребление   понятия   «информация»   в   повседневной   жизни происходит в антропологическом контексте.  Делая выбор между различными точками зрения, надо помнить, что всякая научная   теория   –   это   лишь   модель   бесконечно   сложного   мира,   поэтому   она   не может отражать его точно и в полной мере. 2. Подходы к измерению информации Существует   два   подхода   к   измерению   информации:   содержательный (вероятностный) и объемный (алфавитный).  Процесс познания окружающего мира приводит к накоплению информации в форме   знаний   (фактов,   научных   теорий   и   т.д.).   Получение   новой   информации приводит к расширению знания или к уменьшению неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию.  Пусть у нас имеется монета, которую мы бросаем. С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из двух положений: «орел» или «решка». Можно говорить, что события равновероятны.  Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим, что монета в данный момент находится в определенном   положении   (например,   «орел»).   Это   сообщение   приводит   к уменьшению   неопределенности   наших   знаний   в   два   раза,   так   как   до   броска   мы имели два вероятных события, а после броска – только одно, то есть в два раза меньше.   Чем   больше   неопределенна   первоначальная   ситуация   (возможно  большее количество   информационных   сообщений   –   например,   бросаем   не   монету,   а шестигранный кубик), тем больше мы получим новой информации при получении информационного   сообщения   (в   большее   количество   раз   уменьшится неопределенность знания). 2 ^   Количество   информации   можно   рассматривать   как   меру   уменьшения неопределенности знания при получении информационных сообщений. 3.  Единицы измерения информации Существует формула – главная формула информатики, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2I   За   единицу   количества   информации   принимается   такое   количество информации,   которое   содержится   в   информационном   сообщении,   уменьшающем неопределенность знания в два раза. Такая единица названа бит.  Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту. 2 = 21 Бит – наименьшая единица измерения информации.   С помощью набора битов можно представить любой знак и любое число. Знаки представляются восьмиразрядными комбинациями битов – байтами. 1байт = 8 битов = 23 битов Байт – это 8 битов, рассматриваемые как единое целое, основная единица компьютерных данных.   ля   измерения   информации   используются   более   крупные   единицы: килобайты, мегабайты, гигабайты, терабайты и т.д.  1 Кбайт = 210 байт = 1 024 байт  1 Мбайт = 220 байт = 210 Кбайт = 1 024 Кбайт = 1 048 576 байт  1 Гбайт = 230 байт = 1 024 Мбайт  1 Тбайт = 240 байт = 1 024 Гбайт 4. Контрольные вопросы: 1. Что такое информация? 2. Подходы измерения информации 3. Минимальная единица измерения информации 4. Какие   другие   более   крупные   единицы   используются   для измерения информации 3

Раздел II «Информация и информационные процессы» Тема 2.1.

Раздел II «Информация и информационные процессы» Тема 2.1.

Раздел II «Информация и информационные процессы» Тема 2.1.

Раздел II «Информация и информационные процессы» Тема 2.1.

Раздел II «Информация и информационные процессы» Тема 2.1.

Раздел II «Информация и информационные процессы» Тема 2.1.
Материалы на данной страницы взяты из открытых истончиков либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.
18.01.2017