Терри Пратчетт - Наука Плоского Мира II: Земной шар
Цифровые сообщения — это основа Информационного Века — такое название мы дали современной эпохе с верой в то, что знаем намного больше, чем кто-либо и когда-либо. Примерно так же и Плоский Мир гордится тем, что живет в Век Семафоров, или Эпоху Клик-Башен. Но что такое информация?
Отправляя сообщение, мы обычно ожидаем, что нам придется за него заплатить — в противном случае тот, кто занимается его передачей, будет недоволен. Именно это свойство сообщений вызвало беспокойство Чудакулли, убежденного в том, что сотрудники университетов должны путешествовать бесплатно.
Цена — это, конечно, тоже способ измерения, но она зависит от сложного взаимодействия рыночных сил. Что, к примеру, произойдет, если товар распродается по сниженной цене? С научной точки зрения, «информация» — это объем передаваемого сообщения. Каким бы ни был носитель информации, длинные сообщения стоят дороже коротких — этот принцип, с точки зрения нашей деятельности, кажется вполне универсальным. И значит, где-то в глубине человеческого разума живет вера в то, что у любого сообщения есть количественная мера, или размер. Размер сообщения говорит нам о том, как много в нем содержится информации.
Можно ли сказать, что «информация» и «история» — это одно и то же? Нет. Конечно же, истории содержат в себе информацию, однако у историй есть и гораздо более интересные качества. В то же время информация в большинстве случае не складывается в историю. Представьте себе телефонный справочник: это огромный массив тщательно подобранной информации, но рассказия в нем маловато. Для истории важен смысл. А смысл и информация — это совершенно разные вещи.
Мы гордимся тем, что живем в Информационную Эру. И в этом наша проблема. Если мы когда-нибудь доживем до Эры Смысла, то, наконец-то, сможем понять, в чем именно мы ошиблись.
Информация — это не предмет, а абстракция. Однако склонность человека к материализации абстрактных понятий привела к тому, что многие ученые считают информацию реально существующим явлением. А некоторые физики начинают задаваться вопросом, может ли Вселенная тоже состоять из информации.
Как появилась эта точка зрения и насколько она соответствует действительности?
Люди научились количественно оценивать информацию в 1948 году, когда математик, а позже инженер, Клод Шеннон нашел способ оценить объем информации, заключенной в сообщении, — хотя он сам предпочитал термин сигнал, — переданном от источника к приемнику с помощью некоего кода. Под сигналом Шеннон подразумевал последовательность двоичных цифр («битов», то есть 0 и 1), которые сейчас используются в любом компьютере и устройстве связи, а раньше применялись в семафорах Мюррея. Код он определял как особую процедуру, которая преобразует исходный сигнал в какой-нибудь другой. Простейший код — это тривиальное преобразование, которое «оставляет все без изменений», но более сложные коды способны обнаруживать и даже исправлять ошибки передачи. Коды составляют основу инженерных приложений этой теории, но здесь мы не станем заострять на них внимание и будем считать, что сообщение передается «как есть».
Шенноновская мера информации количественно выражает степень снижения нашей неопределенности относительно бит, составляющих сигнал, после получения сообщения. В простейшем случае, когда сообщение состоит из нулей и единиц, а все варианты равновероятны, количество информации, заключенной в сообщении, определяется очень просто: оно равно общему количеству бит. Каждая принятая нами цифра уменьшает нашу неопределенность относительно ее значения (0 или 1?) до полной уверенности (скажем, 1), но ничего не сообщает о других цифрах, поэтому количество информации равно одному биту. Проделав это тысячу раз, мы получим тысячу бит информации. Все просто.
В данном случае мы придерживаемся точки зрения инженера-связиста и молчаливо предполагаем, что нас интересует только значения отдельных бит сигнала, а не содержащийся в них смысл. То есть каждое из сообщений 111111111111111 и 111001101101011 содержит 15 бит информации. Однако есть и другие подходы к определению информации. Не так давно Грегори Хайтин указал на возможность количественной оценки сигнала с точки зрения содержащихся в нем шаблонов, или закономерностей. Для этого необходимо обратить внимание не на размер сообщения, а на размер компьютерной программы, или алгоритма, который способен его сгенерировать. К примеру, первое из упомянутых сообщений можно сконструировать с помощью алгоритма «все цифры равны 1». Второе сообщение простым алгоритмом описать нельзя — остается только перечислить его бит за битом. Таким образом, с точки зрения меры Шеннона, количество информации в этих сообщениях одно и то же, в то время как мера Хайтина показывает, что второе сообщение содержит намного больше «алгоритмической информации».
Иначе говоря, подход Хайтина сосредоточивает свое внимание на «сжимаемости» сообщений. Если длинное сообщение можно сгенерировать с помощью короткой программы, то лучше переслать эту программу вместо сообщения, сэкономив и время, и деньги. Такая программа «сжимает» сообщение. Когда ваш компьютер преобразует большой графический файл — скажем, фотографию, в JPEG-файл намного меньшего размера, он сжимает информацию в исходном файле одним из стандартных алгоритмов. Это возможно благодаря тому, что фотографии содержат множество шаблонов — например, многократные повторения голубых пикселей, из которых состоит небо. Чем хуже сигнал поддается сжатию, тем больше в нем информации по Хайтину. А для сжатия сигнала нужно описать составляющие его шаблоны. Отсюда следует, что несжимаемые сигналы хаотичны, не содержат никаких закономерностей, однако именно они несут в себе наибольшее количество информации. И в некотором смысле это вполне логично: узнав значение одного бита, мы получаем больше всего информации в том случае, когда непредсказуемость каждого последующего бита максимальна. Если сигнал выглядит как 111111111111111, то мы вряд ли удивимся, узнав, что очередной бит равен 1; но в случае сигнала 111001101101011 (чтобы его получить, мы 15 раз подбросили монетку) угадать следующий бит не так просто.
Оба способа измерения информации находят применение в электронных устройствах. Если информация по Шеннону связана со временем, необходимым для передачи сигнала куда-то еще, то информация по Хайтину оценивает возможность применить какой-нибудь хитрый способ сжатия, чтобы затем передать более короткий сигнал. По крайней мере, так бы было, если бы количество этой информации поддавалось расчетам, но одна из особенностей теории Хайтина состоит в том, что вычислить количество алгоритмической информации, заключенной в сообщении, нельзя — и он смог это доказать. Волшебникам такой подвох пришелся бы по нраву.
В общем, понятие «информации» оказалось довольно полезным, но есть один любопытный факт: если сравнить «Быть или не быть» с «РщфтйЗаишВЬхбцл», то количество информации по Шеннону в них одинаково, в то время как информации по Хайтину во втором сообщении больше. Причина этого несоответствия кроется в том, что информация — это совсем не то же самое, что смысл. И это поразительно. Для людей главную ценность сообщения представляет его смысл, а не количество бит, однако математики так и не смогли придумать способ измерения смысла. Во всяком случае, пока.
Итак, мы снова вернулись к историям, то есть сообщениям, которые несут в себе смысл. Мораль состоит в том, что нам не стоит путать истории с «информацией». Эльфы подарили людям истории, но не дали им никакой информации. Более того, люди выдумали такие истории, персонажи которых вообще не существуют в Круглом Мире — например, истории про оборотней. Пожалуй, эти истории могут кое-что рассказать о человеческом воображении, но на этом их информативность заканчивается.
Большинство людей, и в особенности ученых, столкнувшись с новым понятием, испытывают особую радость, если ему можно сопоставить некое число. Все остальное кажется для них слишком туманным, чтобы приносить какую-то пользу. Будучи числом, «информация» вызывает у нас ощущение точности, и мы иногда упускаем из виду ее иллюзорность. Биология и физика, ступив на этот скользкий путь, успели уехать довольно далеко.
С открытием «линейной» структуры молекулы ДНК эволюционная биология пополнилась одной весьма соблазнительной метафорой, описывающей сложность организмов и процесс их эволюции, а именно: информация, необходимая для построения организма, заключена в его геноме. Своим происхождением эта метафора обязана легендарному открытию Фрэнсиса Крика и Джеймса Уотсона, установившим, что ДНК любого организма состоит из «кодовых слов», составленных из четырех молекулярных «букв» А, Ц, Т, Г, которые, как вы помните, представляют собой первые буквы в названиях четырех возможных «оснований». Эта структур неизбежно легла в основу метафоры, согласно которой геном содержит в себе информацию о соответствующем организме. И действительно, геном часто называется «носителем всей информации, необходимой для воспроизведения» данного организма.