История информатики.docx
Оценка 5

История информатики.docx

Оценка 5
docx
13.05.2020
История информатики.docx
История информатики.docx

История информатики

Историю развития человеком информационных инструментов можно разделить на три этапа: 1. 5 тыс лет до н.э. – изобретение письменности; 2. 15 век н.э. – книгопечатанье; 3. Середина 20 века – изобретение компьютера и создание на базе компьютеров информационных сетей. Рис. . Последовательность революций ХХ века. Понятие информации рассматривалось ещё античными философами. До начала промышленной революции, определение сути информации оставалось прерогативой философов. С развитием электроники, рассматривать вопросы теории информации стала кибернетика. В начале 21-го века возникли специалисты по информатике. Хотя термин «информация» никогда не был точно определён, сама информация существовала всегда подобно веществу, энергии, пространству и времени. Биота с момента своего возникновения переносит и перерабатывает информацию, носителем которой является ДНК. Эффективным носителем информации является мозг человека, в форме его памяти. Эта память ненадёжна, поэтому достаточно давно человечество придумало записывать мысли во всех видах и на различных носителях. Примерами техногенными носителей являются бумага, USB-Flash память, глиняная табличка и т.п. Информация тоже бывает разная: текст, звук, видео, запах, вкус... Исторические эпохи, с точки зрения освоения идей информатики, следует характеризовать по таким параметрам, как организация передачи информации в пространстве, т.е. распространение информации между удалёнными людьми в относительно небольшой временной интервал; организация передачи информации во времени, т.е. накопление и хранение информации; и организация обработки информации, т.е. преобразование её с целью использования в практических целях – управление, образование, создание новой информации (наука) Все эти показатели развивались очень неравномерно, что привело к возникновению, а затем и преодолению информационных барьеров, образующихся в результате противоречий между информационными запросами общества и техническими возможностями их обеспечения. Их три: 1. V тысячелетие до нашей эры. Противоречие- необходимо сохранять и передавать накопленные опыт и знания, а не на чем. Появление письменности. Носителями информации стали камни, глиняные таблички, папирус, пергамент, а во II веке до н.э. появилась и бумага. Теперь хранилище информации – не только человеческий мозг. 2. XV век – развитие производства (появление цехов. мануфактур и т.п) – как следствие потребность в большом числе образованных людей, способных всем этим управлять. Противоречие состояло в том, что рукописных книг не хватало. Было изобретено книгопечатание (XV век Гутенберг). Основной носитель информации – бумага. Скорость передачи её = скорости передачи бумажного носителя. Затем – к началу XX века изменилась ситуация со СКОРОСТЬЮ распространения информации – сначала почта, потом телеграф, телефон, 1905-радио, 20-30 гг. - телевидение. Появились и устройства для ХРАНЕНИЯ информации - фотография. кинолента, магнитная запись. Не изменилась только ПЕРЕРАБОТКА информации – по-прежнему эту функцию выполнял только человек. 3. Середина XX столетия. Общие объемы информации настолько возросли, что человеческий мозг не был в силах с ними справиться. Еще толчок – II мировая война. И был изобретен компьютер. Его основная роль – хранитель информации, самой информацией по-прежнему занимается человек, ибо искусственный разум создать не удалось. История носителей информации началась давно. Первыми носителями информации были стены пещер и поверхности скал. Наскальные изображения и петроглифы (палеолит 40 - 10 тыс. лет до нашей эры) изображали животных, охоту и бытовые сцены. Неизвестно предназначались ли они для передачи информации, служили простым украшением, совмещали эти функции или нужны были для чего-то ещё. Тем не менее, это самые старые носители информации, известные сейчас. Носителями информации выступали глиняные таблички – (7-й век до нашей эры) на базе которых была устроена первая библиотека, восковые таблички, папирус, пергамент, бумага, береста, и др. Перфокарты - появились в 1804 (задание рисунка ткани для ткацкого станка), хотя запатентованы лишь в 1884. Впервые применены Г.Холлеритом для переписи населения США в 1890. Перфолента появилась в 1846 и использовалась при посылке телеграммы. С 1952 магнитная лента используется для хранения, записи и считывания информации в компьютере. Она получила огромное признание и распространённость в форме компакт-кассет. Магнитный диск был изобретен в компании IBM в начале 50-х годов. Первый гибкий диск представлен в 1969, жёсткий диск – в 1956, Compact Disk, DVD - в конце 20-го века, Flash – в начале 21-го века. В XX в. бурное развитие получили всевозможные средства связи (телефон, телеграф, радио), назначение которых заключалось в передаче сообщений. Однако эксплуатация их выдвинула ряд проблем: как обеспечить надежность связи при наличии помех, какой способ кодирования сообщения применять в том или ином случае, как закодировать сообщение, чтобы при минимальной его длине обеспечить передачу смысла с определенной степенью надежности. Эти проблемы требовали разработки теории передачи сообщений, иными словами, теории информации. Одним из основных вопросов этой теории был вопрос о возможности измерения количества информации. Попытки количественного измерения информации предпринимались неоднократно. Первые отчетливые предложения об общих способах измерения количества информации были сделаны Р.Фишером (1921) в процессе решения вопросов математической статистики. Проблемами хранения информации, передачи ее по каналам связи и задачами определения количества информации занимались Р.Хартли (1928) и X. Найквист (1924). Р.Хартли заложил основы теории информации, определив меру количества информации для некоторых задач. Р. Хартли в своей работе «Передача информации» ввёл в теорию передачи информации методологию измерения количества информации и предложил математический аппарат для расчёта этого количества. При этом под информацией он понимал «… группу физических символов – слов, точек, тире и т. п., имеющих по общему соглашению известный смысл для корреспондирующих сторон». Таким образом, Хартли попытался ввести какую-то меру для измерения кодированной информации, а точнее последовательности символов, используемых для кодирования вторичной информации. Ещё в 1927 Хартли отмечал, что количество информации, заключенной в любом сообщении, тесно связано с количеством возможностей, данным сообщением исключающихся. Фраза «яблоки красные» несёт намного больше информации, чем фразы «фрукты красные» или «яблоки цветные», так как первая фраза исключает все фрукты, кроме яблок, и все цвета, кроме красного. Исключение других возможностей повышает информационное содержание. Наиболее убедительно эти вопросы были разработаны и обобщены американским инженером Клодом Шенноном в 1948, опиравшимся на математический аппарат Хартли. В 1949 Шеннон и Уивер представили формулу вычисления количества информации, в которой информация возрастала с уменьшением вероятности отдельного сообщения. В их представлении информация определяется как мера свободы чьего-либо (или какой-либо системы) выбора в выделении сообщения. После публикации этой работы началось интенсивное развитие теории информации и углубленное исследование вопроса об измерении её количества (не любой информации, а только кодированной!). Шеннон также предложил абстрактную схему связи, состоящую из пяти элементов (источника информации, передатчика, линии связи, приёмника и адресата), и сформулировал теоремы о пропускной способности, помехоустойчивости, кодировании и т.д. В результате развития теории информации и её приложений, идеи Шеннона быстро распространили свое влияние на самые различные области знаний. Было замечено, что формула Шеннона очень похожа на используемую в физике формулу энтропии, выведенную Больцманом. В этой связи напомним, что впервые понятие энтропии было введено Клаузиусом в 1865 г. как функция термодинамического состояния системы. Им же дана эмпирическая формула, связывающая энтропию с теплотой и работой. Л.Больцман (1872) методами статистической физики установил связь между энтропией и термодинамической вероятностью (так называемую формулу Больцмана написал Планк), под которой он понимал количество перестановок молекул идеального газа, не влияющее на макросостояние системы. Энтропия Больцмана выведена для идеального газа и трактуется как мера беспорядка, мера хаоса системы. Для идеального газа энтропии Больцмана и Клаузиуса тождественны, поэтому и эмпирическая функция Клаузиуса стала объясняться как мера вероятности состояния молекулярной системы. Классики не связывали энтропию с информацией. Энтропия - степень неупорядоченности статистических форм движения молекул. Энтропия максимальна при равновероятном распределении параметров движения молекул (направлении, скорости и пространственном положении). Значение энтропии уменьшается, если движение молекул упорядочить. По мере увеличения упорядоченности движения энтропия стремится к нулю (например, когда возможно только одно значение и направление скорости). При составлении какого-либо сообщения (текста) с помощью энтропии можно характеризовать степень неупорядоченности движения (чередования) символов. Но энтропия важна не только для описания поведения молекул газов. Её, например, можно использовать для анализа текста этой лекции. При составлении какого-либо текста с помощью энтропии можно характеризовать степень неупорядоченности чередования символов. Используя различие формул количества информации Шеннона и энтропии Больцмана (формулы различались только знаками), Л. Бриллюэн охарактеризовал информацию как отрицательную энтропию, или негэнтропию. Так как энтропия является мерой неупорядоченности, то информация может быть определена как мера упорядоченности материальных систем. В связи с тем, что внешний вид формул совпадает, можно предположить, что понятие информация ничего не добавляет к понятию энтропии. Однако это не так. Если понятие энтропии применялось ранее только для систем, стремящихся к термодинамическому равновесию, т.е. к максимальному беспорядку в движении её составляющих, к увеличению энтропии, то понятие информации обратило внимание и на те системы, которые не увеличивают энтропию, а наоборот, находясь в состоянии с небольшими значениями энтропии, стремятся к её дальнейшему уменьшению. Замечание. В настоящее время известно четыре основных типа энтропий. В термодинамике - это функция состояния (Клаузиус) и мера беспорядка (Больцман). В теории информации – мера достоверности передаваемой по каналу связи информации (Шеннон). При этом следует понимать, что энтропия Больцмана является мерой беспорядка, хаотичности, однородности молекулярных систем, тогда как энтропия Клаузиуса пропорциональна количеству связанной энергии, находящейся в системе, которую нельзя превратить в работу, а энтропия Шеннона количественно характеризует достоверность передаваемого сигнала и используется для расчета количества кодированной информации. Четвёртый тип энтропии - ε-энтропия Колмогорова (и К-энтропия Колмогорова-Синая), используемая, например, для анализа таких объектов, как географическая карта. Теория информации «переросла» рамки поставленных первоначально перед ней задач. Её начали применять к более широкому кругу явлений. Увеличение количества информации стали связывать с повышением сложности системы, с ее прогрессивным развитием. Так, по данным некоторых исследований, при переходе от атомного уровня к молекулярному количество информации увеличивается в 103 раза. Количество информации, относящейся к организму человека, примерно в 1011 раз больше информации, содержащейся в одноклеточном организме. Процесс развития в определенном аспекте можно моделировать, используя процесс передачи информации. Применение информационной модели развития дает возможность прояснить механизм прогресса с учетом усложнения, упорядочения и повышения степени организации материальных систем. Трудно переоценить значение идей теории информации в развитии самых разнообразных научных областей. Однако, по мнению К.Шеннона, все нерешенные проблемы не могут быть решены при помощи таких магических слов, как «информация», «энтропия», «избыточность» Теория информации основана на вероятностных, статистических закономерностях явлений. Она дает полезный, но не универсальный аппарат. Поэтому множество ситуаций не укладываются в информационную модель Шеннона. Не всегда представляется возможным заранее установить перечень всех состояний системы и вычислить их вероятности. Кроме того, в теории информации рассматривается только формальная сторона сообщения, в то время как смысл его остается в стороне. В 1948 вышла знаменитая монография Н.Винера «Кибернетика», в которой был провозглашён тезис: «Информация – это информация, а не материя (вещество) и не энергия». Объединяющим началом для всех видов управления в живой и неживой природе Винер считал информацию, существующую в двух видах. Он же ввёл понятие «бит», характеризующее единицу информации. Н. Винер определил информацию как обозначение содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Вводя понятие о семантически значимой информации, Винер отметил количественное и качественное отличие ЭВМ от человека: машины могут правильно работать в том случае, если получают от человека необходимую им информацию и в самой точной форме. Следовательно, характер информации, вводимой в машину, должен быть точно определен и заранее известен человеку. А живые организмы получают необходимую им информацию благодаря постоянному взаимодействию с природой. Возникновение способности перерабатывать информацию в живых организмах есть исторически развивающийся процесс. Винер показал, что сущность информации заключается в способности систем с памятью к саморазвитию. Другими словами, процессами развития управляет не только внешнее воздействие, но и память. По своей сути память о прошлом представляет собой информацию, записанную в определенных структурах, которые могут передаваться, запоминаться, воспроизводиться. В рассуждениях Винера познание - это часть жизни, более того - самая ее суть. «Действенно жить - значит жить, располагая правильной информацией». При этом процесс познания, накопления информации непрерывен и бесконечен. «Я никогда не представлял себе логику, знания и всю умственную деятельность как завершенную замкнутую картину. Я мог понять эти явления только как процесс, с помощью которого человек организует свою жизнь таким образом, чтобы она протекала в соответствии с внешней средой. Важна битва за знание, а не победа. За каждой победой, т. е. за всем, что достигает апогея своего, сразу же наступают сумерки богов, в которых само понятие победы растворяется в тот самый момент, когда она достигнута». В середине 50-х годов 20-го века, используя материал статистической теории информации, У.Эшби изложил концепцию необходимого разнообразия, согласно которой под разнообразием следует подразумевать характеристику элементов множества, заключающуюся в их несовпадении. Так, множество, в котором все элементы одинаковы, не имеет «никакого» разнообразия, ибо все его элементы одного типа. Если разнообразие его измерить логарифмически, то получим логарифм единицы (единица означает однотипность элементов множества) – нуль. Множество с таким разнообразием соответствует единичной вероятности выбора элемента, т.е. какой элемент множества не был бы выбран, он будет одного и того же типа. Закон необходимого разнообразия Эшби, так же, как закон Шеннона для процессов связи, - общий для процессов управления. Для управления состоянием кибернетической системы нужен регулятор, ограничивающий разнообразие возмущений, которые могут разрушить систему. При этом регулятор допускает такое их разнообразие, которое необходимо и полезно для системы. Закон необходимого разнообразия - один из основных в кибернетике – науке об управлении. Закон относится к процессам передачи сообщений по каналам связи, причём «информация не может передаваться в большем количестве, чем это позволяет количество разнообразия». Кстати Эшби предостерегал против попыток рассматривать информацию как «материальную или индивидуальную вещь»: «Всякая попытка трактовать информацию как вещь, которая может содержаться в другой вещи, обычно ведёт к трудным проблемам, которые никогда не должны были бы возникать». Закон необходимого разнообразия - разнообразие управляющей системы должно быть не меньше разнообразия управляемого объекта. На практике это означает, что чем сложнее объект управления, тем сложнее должен быть и орган, который им управляет. Впитывая всевозможные взгляды и концепции, понятие информации постепенно становится более ёмким и «дорастает» до уровня философской категории – самому общему понятию, которым можно оперировать вообще. Если, например, понятие информации связывать с разнообразием, то причиной существующего в природе разнообразия можно считать неоднородность в распределении энергии (или вещества) в пространстве и во времени. Информация тогда - мера этой неоднородности. Информация существует постольку, поскольку существуют сами материальные тела и, следовательно, созданные ими неоднородности. Всякая неоднородность несёт с собой какую-то информацию. С понятием информации в кибернетике не связано свойство её осмысленности в обычном житейском понимании. Информация охватывает как сведения, которыми люди обмениваются между собой, так и сведения, существующие независимо от людей. Например, звёзды существуют независимо от того, имеют люди информацию о них или нет. Существуя объективно, они создают неоднородность в распределении вещества и поэтому являются источниками информации. В данном случае понятие информации определяется уже на уровне таких изначальных понятий философии, как материя и энергия. Информация независима от нашего сознания. Её объективный характер основан на объективности существования ее источника – разнообразия. Для того чтобы построить строгую теорию информации, К.Шеннону пришлось отвлечься от её смысла. Очень близка к «разнообразностной» трактовке информации идея алгоритмического измерения её количества, выдвинутая в 1965 А.Н.Колмогоровым. Суть её заключается в том, что количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому. Длина программы при этом измеряется количеством команд (операций), позволяющих воспроизвести последовательность. Этот подход, в отличие от подхода Шеннона, не базирующийся на понятии вероятности, позволяет, например, определить прирост количества информации, содержащейся в результатах расчёта, по сравнению с исходными данными. Вероятностная теория информации на этот вопрос не может дать удовлетворительного ответа. До сих пор мы рассматривали подходы, связанные с количественным аспектом понятия информации без учета смысловой стороны информации. Эти подходы позволили привлечь к изучению информации точные математические методы. В результате были созданы всевозможные кибернетические устройства (понятие информации является центральным в кибернетике), вычислительные машины и пр. Всё это стало возможным благодаря достижениям теории информации. Человек научился её преобразовывать, кодировать и передавать на огромные расстояния с хорошей точностью. Классическая теория информации Шеннона, значительно дополненная и обогащенная новыми подходами, всё же не может охватить всего многообразия понятия информации и, в первую очередь, ее содержательного аспекта. Теория информации К.Шеннона также не занимается определением ценности информации. Количество информации её интересует лишь с точки зрения возможности передачи данных сообщении оптимальным образом. В 1968 году Урсул указал на то, что информация неоднородна, она обладает качественными характеристиками, и два разных типа информации не могут сравниваться. Каждый уровень природы обладает собственной информацией. При этом «человеческая», или «социальная», информация составляют один тип информации, и в рамках которой выделяются два аспекта: семантический (содержание) и прагматический (ценность). Попытки оценить не только количественную, но и содержательную сторону информации дали толчок к развитию смысловой теории информации. Исследования в этой области теснее всего связаны с семиотикой – теорией знаковых систем. Одним из важнейших свойств информации является её неотделимость от носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями, эти сообщения выражены некоторыми знаками, словами, языками. Семиотика исследует знаки как особый вид носителей информации. При этом знак - условное изображение элемента сообщения, слово – совокупность знаков, имеющих смысловое значение, язык – словарь и правила пользования им. Таким образом, рассуждая о количестве, содержании и ценности информации, содержащейся в сообщении, можно исходить из возможностей соответствующего анализа знаковых структур. В качестве знаковых систем используются естественные и искусственные языки, в том числе информационные и языки программирования, различные системы сигнализации, логические, математические и химические символы. Они служат средством обмена информацией между высокоорганизованными системами (способными к обучению и самоорганизации). Примером могут быть живые организмы, машины с определенными свойствами. Рассматривая знаковые системы, выделяют три основных аспекта их изучения: синтактику, семантику и прагматику. Синтактика изучает синтаксис знаковых структур, т.е. способы сочетаний знаков, правила образования этих сочетаний и их преобразований безотносительно к их значениям. Отметим в связи с этим, что рассматриваемые ранее способы определения количества информации можно отнести к синтаксическим способам. Семантика изучает знаковые системы как средства выражения смысла, определенного содержания, т.е. правила интерпретации знаков и их сочетаний, смысловую сторону языка. Прагматика рассматривает соотношение между знаковыми системами и их пользователями, или приемниками-интерпретаторами сообщений. К ней относится изучение практической полезности знаков, слов и, следовательно, сообщений, т.е. потребительской стороны языка. Основная идея семантической концепции информации заключается в возможности измерения содержания суждений. Но содержание всегда связано с формой, поэтому синтаксические и семантические свойства информации взаимосвязаны, хотя и различны. Получается, что содержание можно измерить через форму, т.е. семантические свойства информации выразить через синтаксические. Поэтому и исследования семантики базировались на понятии информации как уменьшении или устранении неопределенности. Семантическая концепция преодолевает чисто вероятностный подход. Здесь количество информации, содержащейся в суждении по некоторой проблеме, определяется тем, насколько доказательство или допущение истинности этого суждения уменьшает энтропию, дезорганизованность системы. При прагматическом подходе делается попытка установить зависимость между информацией и целью, которую ставит перед собой человек, работающий с информацией. Прагматический, ценностный подход к информации особенно важен в социальном управлении, где необходима не всякая информация, а лишь та, которая способствует достижению цели, стоящей перед системой. Ценность информации определяется через разность между вероятностями достижения цели до и после получения информации. В соответствии с этим определением информация измеряется всегда положительной величиной, а ценность её может быть и отрицательной. Первую попытку построения теории семантической информации предприняли Р.Карнап и И.БарХиллел. Они примененили идеи и методы символической логики и логической семантики к анализу информационного содержания языка науки. Было предложено определять величину семантической информации посредством логической вероятности, представляющей собой степень подтверждения той или иной гипотезы. При этом количество семантической информации, содержащейся в сообщении, возрастает по мере уменьшения степени подтверждения априорной гипотезы. Если вся гипотеза построена на эмпирических данных, полностью подтверждаемых сообщением, то такое сообщение не приносит получателю никаких новых сведений. Логическая вероятность гипотезы при этом равна единице, а семантическая информация оказывается равной нулю. Гипотеза полностью вытекает из данных опыта. И, наоборот, по мере уменьшения степени подтверждения гипотезы, или запаса знаний, количество семантической информации, доставляемой сообщением, возрастает. Чем больше логическая вероятность высказывания, тем меньше мера его содержания, т.е. чем больше описаний состояния «разрешает» то или иное высказывание, тем меньше должна быть его семантическая информативность и, наоборот, чем больше описаний состояния им исключается, тем больше должна быть его информативность. Семантикоинформационное содержание высказывания определяется не тем, что содержит данное высказывание, а тем, что оно исключает. Финский ученый Я.Хинтикка распространил основные идеи семантической теории информации на логику высказываний. Для многих ситуаций (наблюдения, измерения, подтверждения гипотезы, научного предсказания, объяснения) он предложил метод определения уменьшения неопределенности, которое, например, претерпевает гипотеза g после получения того или иного эмпирического факта h или вообще изменения информационного содержания высказывания g при получении высказывания h. Изучение отношений между знаками и их потребителями с точки зрения использования получаемой информации и влияния знаков на поведение систем составляет основу прагматической теории информации. Для всех подходов здесь характерно стремление связать понятие прагматической информации с целью, целенаправленным поведением и выдвинуть те или иные количественные меры ценности информации. Значительную роль в развитии прагматической теории информации сыграли работы американского логика Д.Харраха, поставившего перед собой цель показать, как символическая логика и теория семантической информации могут быть использованы для анализа некоторых аспектов человеческой коммуникации. Эту цель он пытается достигнуть путем создания «модели того, как разумный получатель оценивает последовательность сообщений на основе определенных семантических и прагматических свойств». Харрах предложил обеспечить получателя «программой обработки сообщений», с помощью которой извлекается из получаемых сообщений «годная к употреблению сумма сообщений». Именно к этому результату переработки сообщений, а не к сообщениям в их первоначальной форме применимы количественные меры информации. Логическая модель коммуникации служит тем языковым каркасом, в рамках которого программа может быть образована и применена. Коммуникационная деятельность - особый вид общения - деятельность по передаче информации от источника (коммуникатора) к получателю (реципиенту) посредством определенного канала. Между коммуникатором и реципиентом может осуществляться «обратная связь», то есть процесс, с помощью которого коммуникатор получает информацию о том, в какой мере и с каким качеством реципиент получил информацию. Появление вычислительных машин в 50-х гг. 20-го века создало до становления информатики необходимую ей аппаратную поддержку, нужную для хранения и переработки информации. Но, конечно, с информацией люди оперировали задолго до появления компьютеров. Начиная с древнего абака, дожившего до наших дней в виде конторских счётов, создавались приспособления для обработки числовой информации. Механические устройства типа арифмометров, счётные электрические клавишные машины, счётно-аналитическая техника и многие другие приборы были нацелены на решение тех же задач, которые в полном объеме стали реализовываться в компьютерах. Кроме числовой информации, в поле зрения специалистов всё время была и символьная информация, например, тексты на естественном языке: от приключенческих повестей до отчетов о проделанной работе, справок из учреждений, писем и т. п. Для хранения и переработки такой информации также придумывали и создавали различные приспособления и устройства. Простейшим примером может служить стойка с ящиками, в которых хранятся карточки, несущие информацию. Такие каталоги - непременный атрибут библиотек. Но на карточках можно хранить в систематизированном виде и любую другую информацию, записанную на некотором естественном или специальном языке. Стремление как-то механизировать, а затем и автоматизировать процедуры, связанные с поиском нужной информации в каталоге, привело к появлению приёмов, вошедших в арсенал специальной науки – документалистики, детищем которой стали ручные и автоматизированные информационно-поисковые системы. Компьютер в одной системе объединил хранение и обработку как числовой, так и текстовой (символьной) информации. Именно поэтому его появление знаменовало начало новой науки.


 

История информатики Историю развития человеком информационных инструментов можно разделить на три этапа: 1

История информатики Историю развития человеком информационных инструментов можно разделить на три этапа: 1

Скорость передачи её = скорости передачи бумажного носителя

Скорость передачи её = скорости передачи бумажного носителя

Р.Фишером (1921) в процессе решения вопросов математической статистики

Р.Фишером (1921) в процессе решения вопросов математической статистики

Им же дана эмпирическая формула, связывающая энтропию с теплотой и работой

Им же дана эмпирическая формула, связывающая энтропию с теплотой и работой

Больцмана является мерой беспорядка, хаотичности, однородности молекулярных систем, тогда как энтропия

Больцмана является мерой беспорядка, хаотичности, однородности молекулярных систем, тогда как энтропия

Следовательно, характер информации, вводимой в машину, должен быть точно определен и заранее известен человеку

Следовательно, характер информации, вводимой в машину, должен быть точно определен и заранее известен человеку

Кстати Эшби предостерегал против попыток рассматривать информацию как «материальную или индивидуальную вещь»: «Всякая попытка трактовать информацию как вещь, которая может содержаться в другой вещи, обычно…

Кстати Эшби предостерегал против попыток рассматривать информацию как «материальную или индивидуальную вещь»: «Всякая попытка трактовать информацию как вещь, которая может содержаться в другой вещи, обычно…

Шеннона, не базирующийся на понятии вероятности, позволяет, например, определить прирост количества информации, содержащейся в результатах расчёта, по сравнению с исходными данными

Шеннона, не базирующийся на понятии вероятности, позволяет, например, определить прирост количества информации, содержащейся в результатах расчёта, по сравнению с исходными данными

Они служат средством обмена информацией между высокоорганизованными системами (способными к обучению и самоорганизации)

Они служат средством обмена информацией между высокоорганизованными системами (способными к обучению и самоорганизации)

При этом количество семантической информации, содержащейся в сообщении, возрастает по мере уменьшения степени подтверждения априорной гипотезы

При этом количество семантической информации, содержащейся в сообщении, возрастает по мере уменьшения степени подтверждения априорной гипотезы

Именно к этому результату переработки сообщений, а не к сообщениям в их первоначальной форме применимы количественные меры информации

Именно к этому результату переработки сообщений, а не к сообщениям в их первоначальной форме применимы количественные меры информации
Скачать файл