Кодирование данных двоичным кодом
Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления – для этого обычно ис- пользуется прием кодирования, то есть выражение данных одного типа через данные другого типа. Естественные человеческие языки – это не что иное, как системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки (системы кодирования компонентов языка с помощью графических символов). История знает интересные, хотя и безус- пешные попытки создания «универсальных» языков и азбук.
Та же проблема универсального средства кодирования достаточно успеш- но реализуется в отдельных отраслях техники, науки и культуры. В качестве примеров можно привести систему записи математических выражений, теле- графную азбуку, морскую флажковую азбуку, систему Брайля для слепых и многое другое.
Своя система существует и в вычислительной технике – она называется двоичным кодированием и основана на представлении данных последователь- ностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами, по-английски – binary digit, или, сокращенно, bit (бит).
Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, чер- ное или белое, истина или ложь и т. п.). Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия:
00 01 10 11.
Тремя битами можно закодировать восемь различных значений: 000 001 010 011 100 101 110 111.
Увеличивая на единицу количество разрядов в системе двоичного кодиро- вания, мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе.
Скачано с www.znanio.ru
Материалы на данной страницы взяты из открытых источников либо размещены пользователем в соответствии с договором-офертой сайта. Вы можете сообщить о нарушении.