KnigaRead.com/

Алексей Шилейко - Информация или интуиция?

На нашем сайте KnigaRead.com Вы можете абсолютно бесплатно читать книгу онлайн Алексей Шилейко, "Информация или интуиция?" бесплатно, без регистрации.
Перейти на страницу:

ВЕЧНОЕ ДВИЖЕНИЕ!

Повторяем еще раз, все это азбука термодинамики, и мы тратим на это время только потому, что в последнее время в литературе начали проскальзывать следующие рассуждения. Представим еще раз цепочку стержней, холодные контакты которых расположены на улице, а горячие — в комнате. Авторы тепловых насосов рассуждают так. При протекании тока горячие контакты нагреваются, а холодные охлаждаются. Охлаждаясь, холодные контакты отнимают определенное количество тепла от окружающей среды. Это количество тепла «перекачивается» к горячим контактам, а от них — в комнату.Все это опять-таки верно, но при одном совершенно обязательном условии. Необходимо, чтобы количество затраченной при этом электрической энергии было бы в пределе равно, а на самом деле с учетом необратимости процессов больше количества перекачанного таким образом тепла. А вот в статье И. Когана «От чугунного радиатора до теплового насоса», помещенной в десятом номере журнала «Наука и жизнь» за 1973 год, написано следующее:«Энергетические затраты на «перекачку» тепла невелики. Расчеты показывают, что при температуре + 17° С в комнате и +7° С на улице на один киловатт-час электрической энергии можно получить почти 30 киловатт-часов тепла».Мы, правда, не знаем, что точно имел в виду И. Коган под словом «тепло», но если он имел в виду то же самое, что обычно понимается в термодинамике под словами «количество тепла», то получается совершенно изумительная картина. Даже с помощью «плохих» преобразователей 30 киловатт избыточного тепла можно преобразовать, скажем, в 2 киловатта электрической энергии. Из них один киловатт затрачивается на работу теплового насоса, а второй — на создание вечного движения. Описание вечного двигателя в 70-х годах нашего столетия, согласитесь, — это здорово!Ошибка этого и подобных ему рассуждений кроется в следующем. Представим себе две одинаковые комнаты и цепочку стрежней, расположенных так, что все холодные спаи помещены в одной комнате, а горячие — в другой. При прохождении тока одна комната будет нагреваться, а вторая — охлаждаться. Количество затрачен ной электрической энергии окажется в точности равным сумме энергии, необходимой на нагревание одной комнаты, и энергии, необходимой для охлаждения второй комнаты. Пусть, затратив определенное количество энергии, мы достигли равновесного состояния, характеризуемого, например, температурой 4-20° С в одной комнате и —20° С в другой. Теперь вместо второй комнаты вынесем холодные контакты на улицу. Пусть температура окружающего воздуха на улице равна —10° С и благо даря хорошему теплообмену температура холодных спаев поддерживается при той же температуре. Тогда при тех же затратах электрической энергии температура в комнате, где расположены горячие контакты, установится + 30° С (напомним, что количество энергии пропорционально разности температур).Такое кажущееся увеличение температуры и является причиной не только для рассуждений, подобных приведенному выше рассуждению И. Когана, но и для экспериментальных «подтверждений» теории тепловых насосов. Просто вынося холодные спаи на улицу, мы не затрачиваем дополнительной энергии на охлаждение холодной комнаты. Измерить же точно количество выделившегося тепла очень трудно из-за несовершенной теплоизоляции нагреваемых помещений.Мы должны твердо запомнить одно: электрические нагреватели и холодильники — это в принципе одно и то же. И в том и в другом случае, затрачивая одинаковое количество энергии, мы получаем одинаковую разность температур и, следовательно, одинаковое количество информации.В этой главе мы, кроме всего прочего, будем всякий раз подводить своеобразные итоги всему сказанному в книге. Поэтому, прощаясь сейчас не только с тепловыми насосами, но и вообще с термодинамическими системами, можно сказать следующее. Шенноновская мера количества информации справедлива для систем, рассматриваемых в классической физике, и, в частности, для термодинамических систем. В силу необратимости отдельных процессов в термодинамике количество информации, измеренное по Шеннону, всегда оказывается несколько меньше максимально возможного. Лишь в случае полной равновероятности микросостояний количество информации достигает максимума.

СИСТЕМЫ СВЯЗИ

Поскольку речь идет об информационных методах в технике, нельзя обойти молчанием системы связи, применительно к которым К. Шеннон и формулировал свои основы теории информации. Системы связи — это огромная область, даже беглый обзор которой требует самостоятельной книги. Поэтому здесь мы, по существу, коснемся лишь одного вопроса, наиболее важного для развиваемой нами точки зрения: как кодируются сообщения?Сейчас используют в основном электрические и радиотехнические (которые тоже можно считать частным случаем электрических) системы передачи данных на. расстояние. В этих системах информация, которую нужно передать, представляется переменными электрическими напряжениями — сигналами. Система связи строится таким образом, чтобы закон изменения напряжения во времени на приемном конце по возможности точно соответствовал такому же закону на передающем конце канала связи.Максимальная величина напряжения ограничивается энергетическими соображениями. Два различных значения напряжения различимы в том случае, если разность между ними больше, чем уровень шумов, который всегда присутствует в любом канале связи. Отсюда следует, что на приемном конце мы можем производить выбор лишь среди конечного (обычно не очень большого) количества значений электрического напряжения. Наиболее надежная связь получается в том случае, когда таких значений только два: либо оно есть — говорят, что в этом случае сигнал имеет значение единицы, либо его нет — сигнал имеет значение нуля. Такие двоичные посылки используются в телеграфии.Существуют ограничения и во времени. Благодаря особенностям каналов связи мы можем констатировать, что электрическое напряжение на приемном конце имеет данное значение только в том случае, если оно поддерживается в течение определенного промежутка времени. Переход от одного значения к другому также требует времени. Значит, за определенный промежуток времени мы можем передать по каналу связи (независимо от его природы) лишь конечное число значений напряжения или, как говорят связисты, посылок. Максимальное количество посылок, передаваемое в единицу времени, — это основная характеристика любого канала связи.Но передавать надо не посылки, а сообщения, имеющие смысл, например, последовательности букв русского или латинского алфавита. Поскольку количество букв в алфавите обычно оказывается больше, чем количество различимых значений напряжения, каждой букве ставится в соответствие несколько посылок, составляющих определенную комбинацию. Такой процесс установления соответствия между буквами или какими-либо другими символами и комбинациями электрических посылок называется кодированием.А теперь самое главное. Основная задача, решаемая при проектировании любого канала связи, состоит в том, каким образом передать в единицу времени наибольшее количество информации. Такая задача возникает по многим соображениям, в том числе и экономическим. Каждая секунда работы канала связи обходится в определенную сумму денег, поэтому чем больше информации мы передадим за эту секунду, тем дешевле будет стоить передача единицы информации. Аналогичным образом, затраты энергии в канале связи также пропорциональны времени ее функционирования. Поэтому чем больше информации будет передано в единицу времени, тем меньше будет стоить передача единицы информации и тем меньших энергетических затрат она потребует.Анализ современных языков показывает, что отдельные буквы в них встречаются с различной частотой. Например, в русском языке чаще всего встречается буква «а» и реже всего — буквы «ш» и «ъ». Ясно, что среднее количество букв, передаваемых по каналу связи в единицу времени, будет наибольшим, если чаще встречающиеся буквы кодировать комбинациями, состоящими из меньшего числа посылок, а реже встречающиеся буквы кодировать комбинациями, состоящими из большого числа посылок.Пусть, например, в некотором сообщении буква «е» встречается 20 раз, а буква «ш» 2 раза. Если каждой из этих букв поставить в соответствие, скажем, по три посылки, то общее количество посылок будет 66 и при скорости передачи 1000 посылок в секунду, за секунду можно передать примерно 333 буквы. Если же букве «е» ставить в соответствие одну посылку, а букве «ш» — четыре посылки, то общее количество посылок будет 28 и при той же скорости передачи за секунду можно будет передать 785 букв.Именно это соображение послужило отправной точкой для всей шенноновской теории информации. Говорят, что мера Шеннона — это среднее количество информации, приходящееся на один символ, в сообщениях, передаваемых по каналам связи.Давайте хорошенько подумаем, так ли это на самом деле. Предположим, что мы располагаем набором копий телеграмм, поступивших в какое-то телеграфное отделение в течение месяца. Можно ли на основании анализа этих телеграмм утверждать, что отдельные смысловые единицы (именно смысловые единицы — они-то и содержат информацию, а не символы) встречаются в телеграммах чаще, чем другие. Можно ли, например, считать, что слова «выезжаю встречайте» будут зарегистрированы чаще, чем, скажем, слово «поздравляю»?и да и нет. Во всяком случае, это зависит от даты, географического положения отделения связи и многих других факторов.При кодировании телеграфных сообщений, вообще говоря, учитывается относительная частота появления смысловых единиц. Примером могут служить бланки поздравительных телеграмм. Пользуясь таким бланком, фактически можно передавать по телеграфу лишь адрес и имя получателя, а также имя или имена отправителей. Сам текст уже заранее отпечатан на бланке, и передается лишь индекс бланка. Но количество поздравительных телеграмм по сравнению с общим их количеством относительно мало. Кроме того, количество поздравительных телеграмм, посылаемых в единицу времени, или их относительная частота, меняется от случая к случаю. Например, в предпраздничные дни она резко возрастает.Иное дело язык. Частота, с которой встречаются отдельные буквы в каждом языке, есть величина постоянная, представляющая собой характеристику данного языка и не зависящая от времени и других факторов. Вот и получается, что мера Шеннона — это характеристика языка, а не выражаемой средствами этого языка информации. Мера Шеннона показывает, какое среднее количество посылок должно быть затрачено для кодирования одной буквы, чтобы количество букв, передаваемым в единицу времени, оказалось максимальным. Само по себе это правильно, но из букв может быть составлено слово, не несущее информации.Задавая вопрос: является ли применительно к системам связи мера Шеннона мерой количества информации? — мы вынуждены ответить на него отрицательно. Повторяем: информация — это не сами символы (буквы), а то, что выражается средствами этих символов. Можно отметить здесь, что как раз только что рассмотренное свойство шенноновской меры и послужило основанием к тому, что, кроме такой меры количества информаций, стали предлагать другие меры для смысловой, или семантической, информации.

Перейти на страницу:
Прокомментировать
Подтвердите что вы не робот:*