Информатика — это наука, изучающая методы представления, накопления, передачи и обработки информации с помощью компьютера.
Информационные и коммуникационные техноло¬гии (ИКТ) — это совокупность методов, устройств и производственных процессов, используемых обще¬ством для сбора, хранения, обработки и распространения информации.
Информатика - это одновременно и наука, и область прак¬тической деятельности человека. Таким образом, вся информатика делится на теоретическую и прикладную.
ОСНОВНЫЕ ПОДХОДЫ К ОПРЕДЕЛЕНИЮ ПОНЯТИЯ «ИНФОРМАЦИЯ»
Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. Понятие информации является основополагающим понятием науки информатики. Абсолютно точное определение информации дать невозможно, это такое же первичное понятие, как точка или плоскость в геометрии.
L1.doc
ЧТО ТАКОЕ ИНФОРМАТИКА?
Информатика — это наука, изучающая методы представления, накопления, передачи и обработки
информации с помощью компьютера.
Информационные и коммуникационные техноло
гии (ИКТ) — это совокупность методов, устройств и
производственных процессов, используемых обществом для сбора, хранения, обработки и распространения
информации.
Информатика это одновременно и наука, и область практической деятельности человека. Таким образом,
вся информатика делится на теоретическую и прикладную.
ОСНОВНЫЕ ПОДХОДЫ К ОПРЕДЕЛЕНИЮ ПОНЯТИЯ «ИНФОРМАЦИЯ»
Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира,
в котором мы живем. Любая деятельность человека представляет собой процесс сбора и переработки
информации, принятия на ее основе решений и их выполнения. Понятие информации является
основополагающим понятием науки информатики. Абсолютно точное определение информации дать
невозможно, это такое же первичное понятие, как точка или плоскость в геометрии.
Выделяют три философских подхода к определению
понятия информации:
1. Атрибутивная
концепция
2. Функциональная
концепция
3. Антропоцентрическая
или коммуникативная
концепция
Информация – это свойство (атрибут) всех материальных объектов
окружающего мира.
Информация и информационные процессы – это свойство (функция)
только живой природы.
Информация и информационные процессы – это свойство (функция)
только человеческого сознания.
Информация — это отражение разнообразия в существующем мире.
Высшая форма отражения – сознание человека.
Итак, ИНФОРМАЦИЯ, в какой бы форме она ни представлялась, является некоторым отражением
реального или вымышленного мира.
Поэтому информацию в рамках науки информатики можно определить как отражение предметного мира
с помощью знаков и сигналов, уменьшающее степень неопределенности наших знаний.
Виды информации по форме представления:
Текстовая (сведения из книги, журнала и т. д., — передаваемая в виде
ВИДЫ И СВОЙСТВА ИНФОРМАЦИИ
символов).
Числовая (в виде цифр и знаков, обозначающих математические действия).
Графическая (рисунок, чертеж — в виде статических изображений).
Звуковая (речь, музыка, шум).
Видеоинформация (в виде динамических изображений).
Современные
компьютеры
могут работать
именно с этими
пятью видами
информации.
Свойства информации.
достоверность;
полнота;
ценность, актуальность,
ясность, понятность (доступность).
Все процессы, связанные с определенными
операциями над информацией, являются
информационными.
Информацию можно собирать, хранить, передавать,
обрабатывать и использовать – все это
информационные процессы. Функции информации в обществе:
познавательная, цель которой — получение новой информации.
коммуникативная — функция общения людей.
управляемой системы, получающей информацию.
управленческая, цель которой — формирование целесообразного, правильного поведения ИНФОРМАЦИОННОЕ ВЗАИМОДЕЙСТВИЕ В СИСТЕМАХ. СИГНАЛЫ.
Особенность информации заключается в том, что проявляется она только при взаимодействии объектов,
причем обмен информацией происходит, только если они представляют собой организованную
структуру (систему). Система, в которой присутствуют те или иные информационные процессы, является
информационной системой.
Система — это сложный объект, состоящий из взаимосвязанных частей (элементов) и существующий как
единое целое. Объект — это предмет, явление, процесс, отношение, на которое обращено наше внимание
с целью его изучения.
Существует 5 свойств, которыми должен обладать объект, чтобы его можно было считать системой:
Целостность. Система есть целостная совокупность элементов, взаимодействующих друг с другом.
Связность. Между элементами системы имеются существенные связи, которые определяют качества
этой системы.
Структурность. Всякая система определяется не только составом своих частей, но также порядком и
способом объединения этих частей в единое целое структурой.
Интегративность или системный эффект. Сущность
свойственны новые качества, не присущие ее составным частям. Это же свойство выражается фразой:
целое больше суммы своих частей
Функциональность. Всякая система имеет определенное назначение (функцию, цель).
системного эффекта: всякой системе
Обмен информацией между элементами системы
Понятие информации предполагает наличие
следующей системы:
источника информации;
приемника информации;
материального носителя информации (сигнал);
канала связи (среды).
Информация передается от источника к приемнику
в материальноэнергетической форме в виде сигналов (например, электрических, световых, звуковых),
распространяющихся в определенной среде.
ИСТОЧНИК
помехи
канал связи
ПОЛУЧАТЕЛЬ
Сигнал – это физический процесс, несущий информацию.
Последовательность сигналов называется сообщением.
Параметр сигнала та из его характеристик, которая используется для представления сообщений.
Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих
искажение и потерю информации.
ДИСКРЕТНЫЕ И НЕПРЕРЫВНЫЕ СИГНАЛЫ. НОСИТЕЛИ ИНФОРМАЦИИ
Чтобы сообщение было передано от источника к получателю, необходим носитель информации – это
материальный объект, предназначенный для хранения и передачи данных.
Для передачи и хранения информации используют два вида носителей – сигнал и знак
.
Информация может поступать непрерывно или дискретно, т. е. в виде последовательности
отдельных сигналов. Соответственно различают непрерывную и дискретную информацию.
Непрерывный (аналоговый) сигнал – это сигнал, параметр которого непрерывно меняется вслед за
изменениями соответствующей физической величины. Информация, представленная таким способом,
называется непрерывной. (Примеры: человеческая речь, передаваемая модулированной звуковой волной,
векторная графика). ( оцифровывание
) – это преобразование
Дискретный сигнал – это сигнал, параметр которого принимает конечное число значений, меняющееся
через определенные промежутки времени (скачками). Информация, передаваемая источником в этом
случае, называется дискретной. (Примеры: распечатка матричного принтера, растровый способ
представления изображений).
Дискретизация
непрерывного сообщения в дискретное.
Возможность дискретизации непрерывного сигнала с любой
желаемой точностью (для возрастания точности достаточно
уменьшить шаг) принципиально важна с точки зрения
информатики и вычислительной техники (ВТ).
Компьютер цифровая машина, т.е. внутреннее
представление информации в нем дискретно.
Дискретизация входной информации (если она непрерывна)
позволяет сделать ее пригодной для компьютерной обработки.
Что такое знак?
В общем случае сигнал это изменяющийся во времени процесс. При взаимодействии сигналов с
физическими объектами в этих объектах возникают определенные изменения их свойств. Такие изменения
можно наблюдать, измерять или фиксировать разными способами. Такую фиксацию информации называют
регистрацией сигналов. При этом образуются новые сигналы – данные.
Данные – это зарегистрированные (зафиксированные) сигналы. Чтобы зарегистрировать сигналы
используют знаки.
Знак – это материальный объект, замещающий или представляющий другой объект и несущий информацию
о нем.
Вывод: Носителями информации в технических, социотехнических и биологических системах и средах
являются сигналы. Носителями смысловой информации в социальных и коммуникативных системах
являются знаки.
КОЛИЧЕСТВО ИНФОРМАЦИИ
КАК МЕРА УМЕНЬШЕНИЯ НЕОПРЕДЕЛЕННОСТИ ЗНАНИЙ
С точки зрения процесса познания информация мо
знания. Поэтому информацию,
которую получает человек, можно считать мерой уменьшения неопределенности знаний. Такой
содержательный подход к информации позволяет количественно измерять информацию, что чрезвычайно
важно для информатики.
жет рассматриваться как
ЕДИНИЦЫ ИЗМЕРЕНИЯ КОЛИЧЕСТВА ИНФОРМАЦИИ
бит такое количество информации, которое
За единицу количества информации
принимается 1
содержит сообщение, уменьшающее неопределенность знаний в два раза.
В современной вычислительной технике информация кодируется последовательностью сигналов двух
видов: включено (1) – выключено (0). Такое кодирование называется двоичным, а цифры 0 и 1 – битами.
Однако бит — слишком мелкая единица измерения. На практике чаще применяется более крупная
единица — байт, равная восьми битам. 1 байт = 8 бит = 23 бит.
Широко используются также ещё более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт = 213 бит,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт = 223 бит,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт = 233 бит.
Название
Символ по ГОСТ Измерение в байтах
Измерение в битах
бит
байт
килобайт
бит
байт
Кбайт
1 = 20
210
1
8 = 23
213 Сводная
таблица
мегабайт
гигабайт
терабайт
петабайт
эксабайт
зеттабайт
йоттабайт
Мбайт
Гбайт
Тбайт
Пбайт
Эбайт
Збайт
Йбайт
220
230
240
250
260
270
280
223
233
243
253
263
273
283 Что такое содержательный подход?
Информация в вычислительной технике измеряется количеством бит в сообщении.
Это количество называется информационным объемом.
Подход к измерению количества информации, при котором количество информации связывают с
содержанием (смыслом) полученного сообщения называется содержательным.
Количество информации (I), содержащееся в сообщении о том, что произошло
одно из N равновероятных событий, определяется из решения уравнения:
2I = N
– главная формула информатики.
По этой формуле легко подсчитать количество возможных событий N, если известно количество
информации I.
Например, если известно, что получено 4 бита информации, то количество возможных событий составляло:
N = 24 = 16.
Наоборот, если известно количество событий N, то для определения количества информации необходимо
решить наше уравнение относительно
I . Такое уравнение называется показательным.
Например, если известно, что в некоторой камере хранения имеется 64 ячейки, то информационный объем
сообщения о том, что вещи хранятся, например, в 3й ячейке, находится из уравнения:
64
= 2I , I = 6 бит, т. к. 26 = 64.
не целым
, то берется
I , вычисленное из формулы, получается
наименьшее целое,
Если значение
следующее за найденным.
В случае с игральным кубиком N = 6, следовательно:
6 = 2I , I = 3 бита, т. к. 23 = 8 > 6,
а 2 бита недостаточно для хранения 6 значений, т. к. 22 = 4 < 6.
Примеры: АЛФАВИТНЫЙ ПОДХОД К ОПРЕДЕЛЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ
Информация передается в виде сообщений – последовательностей сигналов. Дискретная информация
может записываться (фиксироваться) с помощью знаков (символов). Набор основных символов формирует
алфавит, на базе алфавитов строятся разнообразные знаковые системы.
Что такое алфавит?
Каждая знаковая система строится на основе:
определенного алфавита (конечного набора знаков символов),
соглашений и правил выполнения операций над знаками.
Язык – это знаковая система, предназначенная для представления и передачи информации.
Символ – это графический объект (буква, цифра, графическое изображение), соответствующий знаку в
некотором языке.
Алфавит – это (конечное) множество основных символов языка, различных по начертанию.
Полное количество символов алфавита называется мощностью алфавита.
Что такое алфавитный подход?
Алфавитный подход к измерению информации не связывает
сообщения.
Пусть некоторый алфавит содержит N символов. Считаем, что появление символов в сообщении
равновероятно.
Тогда каждый символ данного алфавита несет количество информации
формуле Хартли (главной формуле информатики):
i, которое можно вычислить по
формации с содержанием
количество ин
2i = N
Рассмотрим этот подход на примере текста, написанного на русском языке. Так, в русском алфавите, если
не использовать букву ё, количество событий (букв) будет равно 32. Тогда: 32 = 25, откуда i = 5 бит.
В этом случае каждый символ русского алфавита несет 5 бит информации (его инфор
равна 5 бит).
мационная емкость
Количество информации I, которое содержит сообщение, закодированное с помощью знаковой
системы, равно количеству информации, которое несет один знак, умноженному на количество
знаков в сообщении.
Таким образом, если текст содержит К символов данного алфавита, тогда информационный объем этого
текста I, будет равен:
I = K • i
Примеры:
1) В алфавит мощностью N = 256 символов можно поместить все необходимые символы: латинские и
русские буквы, цифры, знаки арифметических операций, знаки препинания и т.д.
Тогда по формуле Хартли: 2i = 256, i = 8(бит). Таким образом, один символ алфавита мощностью 256
символов, "весит" 8 бит.
2) Вычислить количество информации в слове «комбинаторика», если допустить, что в русском алфавите
содержится:
а) 32 символа, б) 33 символа.
Решение. а) Здесь N = 32 следовательно i = 5 бит, количество знаков К = 13, тогда, I = 13 • 5 = 65 бит.
б) Если N = 33 символа, тогда i = 6 бит, количество знаков К = 13, тогда, I = 13 • 6 = 78 бит.
3) Вопрос: Пусть две книги на русском и китайском языках содержат одинаковое количество знаков. В какой книге содержится большее количество информации с точки зрения алфавитного подхода? КЛАССИФИКАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ
ОСОБЕННОСТИ ЗАПОМИНАНИЯ, ОБРАБОТКИ И ПЕРЕДАЧИ ИНФОРМАЦИИ
ЧЕЛОВЕКОМ
Человек и информация
Человек живет в мире информации. Он воспринимает окружающий мир (получает информацию) с
помощью органов чувств. Наибольшее количество информации (около 90%) человек получает с
помощью зрения, около 9% — с помощью слуха и только 1% с помощью других органов чувств
(обоняния, осязания и вкуса). Полученная человеком информация в форме зрительных, слуховых и
других образов хранится в его памяти. Человеческое мышление можно рассматривать как процессы
обработки информации в мозгу человека. На основе информации, полученной с помощью органов чувств, и
теоретических знаний, приобретенных в процессе обучения, человек создает информационные модели
окружающего мира. Такие модели позволяют человеку принимать правильные решения для достижения
поставленных целей.
Информационный процесс для человека — это последовательность действий (операций),
производимых над информацией (в виде данных, сведений, фактов, идей, гипотез, теорий и пр.) для
получения какоголибо результата, достижения цели.
Вспомнив определение информатики, мы поймем, что именно информационные процессы являются
предметом изучения информатики.
Информация не существует сама по себе, она проявляется в информационных процессах.
Информационные процессы, осуществляемые по определенным информационным технологиям,
составляют основу информационной деятельности человека.
Определения и примеры основных информационных процессов (ИП).
Название ИП
Определение ИП
Примеры ИП
1) Поиск
информации
2) Отбор
информации
3) Хранение
информации
– это извлечение хранимой в
различных формах информации.
– это выбор нужных в данный
момент сведений из имеющейся
информации.
– это способ распространения
информации в пространстве и
времени, с помощью фиксации ее
на различных носителях.
4) Передача
информации
5)
Кодирование
информации
– это процесс переноса
информации от одного объекта к
другому.
– это процесс представления
информации в форме, удобной для
ее хранения и/или передачи.
6) Обработка
информации
– это процесс, в ходе которого
изменяется содержание или форма
представления информации.
7) Защита
информации
– это комплекс организационных,
правовых и технических мер по
Поиск информации в компьютерной базе данных.
Работа с библиотечным каталогом и/или словарем.
Выбор нужного сайта в сети Интернет из множества
представленных;
В математике: выбор решения, соответствующего
граничным условиям.
Бумага, на которой хранятся тексты и изображения;
Микросхемы памяти, магнитные и лазерные диски,
на которых хранятся программы и данные в
компьютере;
Молекулы ДНК, которые хранят генетическую
информацию.
Непосредственное общение между людьми;
Технические системы передачи информации:
телеграф, телефон, радио, телевидение, Интернет.
Представление в символьном виде с помощью
конечного алфавита: буквы, цифры, ноты, дорожные
знаки и др.;
Двоичное кодирование информации в виде знаков
двух видов: включено (1) – выключено (0).
Перевод текста с одного языка на другой;
Решение задачи по математике, строго по алгоритму.
Обработка информации различного вида с помощью
прикладных компьютерных программ.
Антивирусная проверка компьютера,
Системы шифрования — тайнописи, предотвращению угроз
информационной безопасности и
устранению их последствий.
Цифровая подпись, цифровой сертификат.
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
ЧТО ТАКОЕ ИНФОРМАТИКА?
Материалы на данной страницы взяты из открытых истончиков либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.