Уроки креационной науки

Всего таких комбинаций по восемь штук из двух значений бита можно составить 28 = 256, чего хватает с запасом на несколько алфавитов и разные служебные знаки и команды. Например, сочетание 00001111 – мы можем использовать для обозначения цифры 2, а для обозначения буквы Н, положим, 01010101. Нужно только всем договориться о единой системе такой кодировки, и каждый знак можно будет передавать восемью битами информации, которая именуется байтом.

ИСЧИСЛЕНИЕ ИНФОРМАЦИИ И СИММЕТРИЯ Теперь, чтобы записать, к примеру, слово АБРОКАДАБРА нам потребуется 11 букв или 11 байт памяти нашего компьютера. Пока не станем задаваться вопросом: много ли смысла в такой затрате памяти. Возьмем и другое, не более значащее слово, выражающее, к примеру, чувство сильного страха: ААААААААААА. Сообщение состоит тоже из 11 букв, то есть для его записи можно использовать 11 байт информации. А можно ли его выразить короче?

В отличие от первого сообщения – можно. Например, в три байта: 11А. Почему это оказалось возможно? Потому что в записи второго слова есть линейная симметрия, или повторяемость. С точки зрения порядка, или вероятности случайного отгадывания каждого слова перебором букв оба слова равнозначны или равносложны. Перебирая 11 букв случайным образом для отгадывания каждого из обоих слов, мы будем располагать одним шансом из 3211.

Но с точки зрения неслучайного отгадывания второе слово предпочтительнее. Нужно только один раз попасть в клавишу А на клавиатуре и задержать на ней палец. С точки зрения количества информации оба слова неравны. Первое нельзя "сжать", а второе можно. Существуют особые программы сокращения записи в компьютерах, которые по особым правилам сжимают повторяющиеся буквы или пробелы.

Кроме того, для сжатия записи текста, содержащего только 32 буквы, можно каждую из них кодировать не целым байтом, не ячейкой из восьми битов, а ячейкой из пяти таких битов. Различных комбинаций из пяти нулей и единиц можно составить как раз 25 = 32, так что каждую букву можно при такой нужде закодировать лишь пятью, а не восемью битами. Это позволяет сжимать запись.

Но, совершенно очевидно, что подобное сжатие возможно лишь до какого-то предела, который определяется элементами повторяемости или симметрии записи. Лучше всего сжимаются в компьютере рисунки. Для передачи, положим, черно-белого рисунка, весь он разбивается на большое мозаичное поле, каждая мелкая клеточка которого, может быть черною или белою, в зависимости от того, попадает ли на нее черная или белая часть рисунка.

Занумеровав последовательность всех клеток и запомнив, которые из них черные, а какие белые, можно зашифровать рисунок цифрами. Ясно, что для хорошей передачи требуется очень мелкая мозаика, но также ясно, что в любой такой мозаике будут повторяющиеся целые строчки из точек одного цвета. Чем мельче мы возьмем мозаику, тем большая требуется память для записи рисунка, но с другой стороны, тем больше возможностей для сокращения этой записи.

Если же в рисунке есть повторяющийся элемент симметрии, то есть если рисунок представляет собою орнамент, то закодировать его в информационное сообщение еще легче. Нужно просто скопировать сам повторяющийся элемент (крестик, квадратик, уголок) и указать способ "сборки" орнамента из таких элементов. Все сказанное не есть разговор праздный.

Все это имеет прямое отношение к вопросу происхождения жизни. Если связи с жизнью читателю здесь пока не видно, лучше просто запомнить сказанное и немного подождать, а потом при нужде вернуться к этим страницам. ИНФОРМАЦИЯ, ТЕРМОДИНАМИКА И СТРУКТУРА Итак, в основе законов термодинамики и передачи информации лежит одно и то же общее понятие – вероятность.

Все в мире стремится к максимуму вероятности, потому энтропия растет, а информация не возникает самопроизвольно и портится при передаче. Шум и хаос более вероятны, как мы уже отмечали выше. Однако между термодинамикой и информатикой должно быть при всем их сходстве некоторое качественное отличие. Еще бы, ведь об информации нельзя говорить, не восходя в конце концов к понятию разума. Информация – штука более тонкая.

Противоположность беспорядку и энтропии представляет структура. Это понятие встречается и в термо- и в информо-динамике. С помощью хаотически движущихся молекул газа никакого сообщения не выразить. Надо их упорядочить, снизить энтропию, расставить элементы в каком-либо порядке. Термодинамика может решить эту проблему просто: надо газ охладить и превратить в жидкость, а затем в кристалл.

В кристалле энтропия снижена и порядок (структура) уже налицо. Но много ли при этом сама структура может создать информации? Иными словами может ли не порядок, а сама информация быть следствием чисто механико-статистического процесса – снижения энтропии? Отчасти, конечно, да. Любой кристалл несет информацию о своей структуре. Но попробуем вычислить ее на примере кристалла поваренной соли.

Его элементарная ячейка – кубик, в вершинах которого чередуются ионы хлора и натрия. По одному байту уйдет на запись названий этих элементов, еще один байт потребуется, чтобы изобразить куб с этими ионами в вершинах – и все! Теперь только умножайте, тиражируйте эту информацию во всех направлениях, указывая на сколько шагов и в каком направлении сдвинуть элементарную решетку – и вы получите любой кристалл в самом кратком его информационном описании.

Симметрия многократно экономит информацию, как мы видели только что. А вот с молекулой ДНК или белка такой фокус не пройдет! Там для записи каждого нуклеотида или аминокислоты на своем месте потребуется свой байт информации. Там симметрии нет. А информации очень много. Конечно, и случайное нагромождение частиц, не несущее никакого смысла, для своего описания потребовало бы много информации, но в случайном нагромождении и самой структуры-то нет, а в живой клетке она безусловно есть.