Лекция по теме Системы, образованные взаимодействующими элементами, состояния элементов, обмен информацией между элементами, сигналы

  • doc
  • 25.04.2020
Публикация на сайте для учителей

Публикация педагогических разработок

Бесплатное участие. Свидетельство автора сразу.
Мгновенные 10 документов в портфолио.

Иконка файла материала 78. Лекция по теме Системы, образованные взаимодействующими элементами.doc

Тема 1. Системы, образованные взаимодействующими элементами, состояния элементов, обмен информацией между элементами, сигналы.  Классификация информационных процессов. Кодирование информации. Языки кодирования.

 Понятие информация точно и однозначно не определяется, хотя используется повсеместно. Оно вводится путём объяснения, которое опирается на интуицию, здравый смысл или бытовое применение этого термина.

В Федеральном законе Российской Федерации от 27 июля 2006г. №149-ФЗ  «Об  информации,  информационных  технологиях и о защите информации» (http://www.rg.ru/2006/07/29/informacia-dok.html) дается следующее определение этого термина: «информация — сведения (сообщения, данные) независимо от формы их пред- ставления».

Толковый словарь русского языка Ожегова приводит 2 определения слова «информация»:

1.      Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.

2.      Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. (Научно-техническая и газетная информация, средства массовой информации — печать, радио, телевидение, кино).

Для количественного определения имеющейся информации самым удобным оказалось такое: это сведения, которые уменьшают неопределенность об окружающем мире и являются объектом хране- ния, преобразования, передачи и использования.

Информация – это:

– данные, определенным образом организованные, имеющие смысл, значение и ценность для своего потребителя и необходимая для принятия им решений, а также для реализации других функций и действий;

– совокупность знаний о фактических данных и зависимостях между ними, являющихся одним из видов ресурсов, используемых человеком в трудовой деятельности и быту;

– сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы представления;

– сведения, неизвестные до их получения;

– значение, приписанное данным;

– средство и форма передачи знаний и опыта, сокращающая неопределенность и случайность и неосведомленность;

– обобщенный термин, относящийся к любым сигналам, звукам, знакам и т.д., которые могут передаваться, приниматься, записываться и/или храниться.

Свойства информации:

Объективность – не зависит от чего-либо мнения.

Достоверность – отражает истинное положение дел.

Полнота – достаточна для понимания задачи и принятия решения.

Актуальность – важна и существенна для настоящего времени.

Ценность (полезность, значимость) – обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения.

Понятность (ясность) – выражена на языке, доступном получателю.

 

Классификация информации.

Поскольку носителями  информации  являются  сигналы,  то в качестве последних могут использоваться физические или социальные процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения тела, количество людей на предприятии, имеющих высшее образование, продуктивность работы ученых и т. д. Сигналом, передающим информацию, служит значение одного или нескольких параметров регистрируемого процесса. В связи с этим существуют разные варианты классификации информации.

 

1.      По форме представления:

-     дискретная информация: характеризуется прерывистой, изменяющейся величиной, например, количество дорожно-транспортных происшествий, количество символов в том или ином алфавите, количество занятых байт в памяти компьютера и т. п. Сигнал, переносящий информацию, представляется последовательностью символов алфавита, принятого в данной предметной области;

-     аналоговая информация: (непрерывная) представляется сигналом, измеряемый параметр которого может принимать любые промежуточные значения в определенных пределах. Например, температура тела человека, скорость автомобиля на определенном участке пути, воспроизведение звука на виниловой пластинке, так как звуковая дорожка на ней изменяет свою форму непрерывно, плавные переходы цветов на живописном полотне и т. п. Аналоговую информацию можно преобразовать в дискретную с некоторой потерей промежуточных значений.

Для цифровой техники наиболее удобна дискретная форма представления информации.

2.По области возникновения выделяют информацию:

-     механическую, которая отражает процессы и явления не- одушевленной природы;

-     биологическую,  которая  отражает  процессы  животного  и растительного мира;

-     социальную,    которая      отражает    процессы   человеческого общества.

3.      По способу передачи и восприятия различают следующие виды информации:

-     визуальную, передаваемую видимыми образами и символами;

-     аудиальную, передаваемую звуками;

-     тактильную, передаваемую ощущениями прикосновений;

-     органолептическую, передаваемую запахами и вкусами;

-     машинную, выдаваемую и воспринимаемую средствами вычислительной техники.

4.Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида:

-     личную, предназначенную для конкретного человека;

-     массовую, предназначенную для любого желающего ею пользоваться (общественно-политическая, научно-популярная и т.д.);   

-     специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.

5.      По способам кодирования выделяют следующие типы информации:

-     символьную, основанную на использовании символов – букв, цифр, знаков и т. д. Она является наиболее простой, но применяется только для передачи несложных сигналов о различных событиях. Примером может служить зеленый свет уличного светофора, который сообщает пешеходам и водителям автотранспорта о возможности начала движения;

-     текстовую, основанную на использовании комбинаций символов. Здесь так же, как и в предыдущей форме, используются символы: буквы, цифры, математические знаки. При этом в текстовой информации принципиально важен не только состав, но и порядок следования символов. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию. Текстовая информация чрезвычайно удобна и широко используется в деятельности человека: книги, брошюры, журналы, различного рода документы, аудиозаписи кодируются в текстовой форме;

-     графическую, основанную на использовании произвольного сочетания графических примитивов. К этой форме относятся фотографии, схемы, чертежи, рисунки, играющие большое значение в деятельности человека.

Представление информации осуществляется с помощью языков, как знаковых систем, которые строятся на основе определенного алфавита и имеют правила для выполнения операций над знаками.

Язык – определенная знаковая система представления информации. Существуют:

Естественные языки – разговорные языки в устной и письменной форме. В некоторых случаях разговорную речь могут заменить язык мимики и жестов, язык специальных знаков (например, дорожных).

Формальные языки – специальные языки для различных областей человеческой деятельности, которые характеризуются жестко зафиксированным алфавитом, более строгими правилами грамматики и синтаксиса. Это язык музыки (ноты), язык математики (цифры, математические знаки), системы счисления, языки программирования и т.д.

Единицы измерения количества информации.

Для определения количества информации необходимо ввести единицу измерения.

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа «бит».

1 байт = 23 бит = 8 бит

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт = ? байт;

1 Гбайт = 210 Мбайт = 1024 Мбайт = ? Кбайт = ? байт.

 

Количество возможных событий и количество информации. Существует формула, которая связывает между собой количество возможных событий N и количество информации I:

N=2I.

По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло: N = 24= 16.

Наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно I. Например, в игре «Крестики-нолики» на поле 8×8 перед первым ходом существует возможных события 64 различных варианта расположения «крестика», тогда уравнение принимает вид: 64 = 2I.

Так как 64 = 26, то получим: 26 = 2I.

Таким образом, I = 6 битов, то есть количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов.

Закрепление изученного материла.

Контрольные вопросы:

1. Что такое информация?

2. Назовите основные свойства информации.

3. Способы представления информации.

4. Единицы измерения количества информации.


Скачано с www.znanio.ru