Информация
Слово «информация» в переводе с латинского языка (informatio)
означает следующее: сведения, разъяснение, ознакомление.
Явление одно, а называют его разными словами, так как это понятие является общенаучным. Оно используется в различных науках, при этом в каждой науке понятие «информация» связано с различными системами понятий.
Информация в неживой природе
В физике, которая изучает неживую природу, информация является мерой упорядоченности системы по шкале «хаос-порядок». Один из основных законов классической физики утверждает, что замкнутые системы, в которых отсутствует обмен веществом и энергией с окружающей средой, стремятся с течением времени перейти из менее вероятного упорядоченного состояния в наиболее вероятное хаотическое состояние.
Информация в живой природе
Живые системы в процессе своего развития способны повышать сложность своей структуры, то есть увеличивать информацию, понимаемую как меру упорядоченности элементов системы.
Дети не являются точными копиями своих родителей, так как каждый организм обладает уникальным набором генов, которые определяют различия в строении и функциональных возможностях.
Человек и информация
Человек существует в информационном пространстве, он постоянно получает информацию из окружающего мира с помощью органов чувств, хранит её в своей памяти, анализирует с помощью мышления и обменивается информацией с другими людьми.
Информация в технике
Функционирование систем управления техническими устройствами связано с информационными процессами. Системы управления встроены практически во всю современную бытовую технику, станки с числовым программным управлением, станки с ЧПУ, транспортные средства и так далее.
Количество информации как мера уменьшения неопределенности знаний
Возможные события | Произошедшее событие |
Количество информации как мера уменьшения неопределенности знаний
Рассмотренный выше подход к информации как мере уменьшения неопределенности знания позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации i, которое несёт полученное сообщение.
N=2i
Единицы измерения информации
Бит – это минимальная единица измерения информации, соответствующая одной двоичной цифре («0» или «1»).
Байт состоит из восьми бит.
Алфавитный подход к определению количества информации
При алфавитном подходе к определению количества информации мы отвлекаемся от содержания информации и рассматриваем информационное сообщение как последовательность знаков определенной информационной системы.
Формула связывает между собой количество возможных информационных сообщений N и количество информации i которое несет полученное сообщение. Тогда в рассматриваемой ситуации N - это количество знаков в алфавите знаковой системы, а i -количество информации, которое несет каждый знак:
N=2i
Материалы на данной страницы взяты из открытых источников либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.