Евгений Седов - Одна формула и весь мир
Для решения подобных задач обратились к помощи электронной машины. Оказалось, что такие задачи целесообразно решать методом Монте Карло, получившим свое название по имени местечка в княжестве Монако, известного в мире благодаря обилию в нем игорных домов. ЭВМ уподобилась шаловливому школьнику: вместо того чтобы решать занудные уравнения, она стала «играть в рулетку», превращать шумовой сигнал в случайную последовательность чисел, затем подставлять их в уравнения вместо неизвестных х, у, г и оценивать полученный результат. При каких-то случайных числах результат улучшается (например, укорачивается путь, который должен совершить коммивояжер). При других — результат становится хуже. Бракуя числа, ухудшающие решения, и запоминая числа, приближающие к желанному результату, ЭВМ шаг за шагом «нащупывает» правильный путь.
С помощью детерминированных математических уравнений те же задачи или пришлось бы решать слишком долго (когда число неизвестных и соответственно число уравнений исчисляется десятками) или не удалось бы решить никогда (если число неизвестных превышает число уравнений).
Содержащаяся в шуме энтропия позволила усовершенствовать искусственный интеллект. Она вывела его за пределы узких формальных рамок и наделила способностью творческого решения нестандартных задач.
В который раз нам приходится отмечать созидательную роль энтропии! Не будь энтропии в машине, она была бы обречена решать только нетворческие задачи. Не будь энтропии в тексте, все книги превратились бы в надоедливое повторение азбучных истин. Не будь энтропии (мутаций) в генетическом коде, невозможна была бы эволюция животных и растительных видов. Не будь энтропии в природе, нас с вами угнетал бы своей неизменностью фатально подчиняющийся предначертанию неумолимого рока детерминированный лапласовский мир.
А впрочем, ничто бы нас тогда не угнетало! По той простой причине, что нас с вами тогда попросту не было бы. В «безэнтропийном» лапласовском мире никаких сложных систем (а ведь мы с вами довольно-таки сложные системы!) не могло бы ни возникнуть, ни существовать. Ибо, как доказано кибернетикой, случайный, стохастичный энтропийный характер внутрисистемных связей — необходимое условие надежности сложных систем.
Вот что пишет Клод Шеннон о надежности мозга:
«Мозг человека или животного может служить примером очень большой и относительно надежной системы, построенной из индивидуальных компонент (нейронов), которые ненадежны не только в выполнении операций, но и в тонких деталях взаимосвязи. Более того, хорошо известно, что при повреждении, несчастном случае или болезни мозг продолжает функционировать замечательно правильно, даже если поражены его большие области. Эти факты представляют сильный контраст по сравнению с поведением и организацией современных вычислительных машин. Индивидуальные элементы этих машин должны быть выполнены с чрезвычайной надежностью, каждый провод должен быть соединен нужным образом, и каждая команда в программе должна быть правильной».
Такова уж судьба любой детерминированной системы: вышел из строя один маленький винтик, и сложная большая машина превращается в мертвую груду неподвижных деталей или более крупных, но не менее мертвых частей. Известный американский кибернетик У. Р. Эшби высказал по этому поводу весьма меткое замечание: в жестко детерминированных системах каждый из элементов обладает «правом вето» по отношению ко всем остальным.
Что же спасает мозг, когда болезнь или несчастный случай привели к поражению целых больших областей? Что помогает ему перестроиться, найти обходные пути, если порвался «провод», поправить любую ошибочную команду целой серией корректирующих команд? В чем секрет надежности этой ни с чем не сравнимой по своей сложности и совершенству системы, построенной из огромного множества (миллиарды!) нейронов, каждый из которых в любую секунду может дать «сбой»?
Секрет опять-таки в энтропии. Это она помогает мозгу и при нормальном режиме и в аварийной ситуации методом проб и ошибок найти правильное решение и получить оптимальный при сложившихся обстоятельствах результат.
Только при наличии гибких, недетерминированных (вероятностных) связей между элементами система приобретает возможность перестроить взаимодействие своих элементов, перераспределить их функции, если вышел из строя какой-нибудь элемент. Благодаря этому свойству существуют не только сложные организмы, но и вообще все живое.
Энтропийность — неотъемлемое качество всех живых организмов, проявляющееся и на уровне генов (в виде мутаций), и на уровне межклеточных связей, взаимодействия различных органов и т. д. Так же, как и в языке, количество существующих внутри организма детерминированных информационных связей существенно превышает количество связей случайных. Но наличие случайных связей принципиально необходимо: без стохастичности межклеточных связей организм лишился бы возможности адаптации к меняющимся внешним условиям, без стохастических мутаций генов прекратился бы созидательный эволюционный процесс. В этом аспекте становится особенно очевидной ошибочность основных установок противников генетической теории, по инициативе которых проходила дискуссия на сессии Всесоюзной академии сельскохозяйственных наук им. В. И. Ленина (ВАСХНИЛ) в 1948 году.
Среди всех участников сессии, пожалуй, только два человека — академики И. И. Шмальгаузен и В. С. Немчинов — понимали, что спор о механизме наследственности есть, в сущности, спор об «энтропийных свойствах» живого.
Согласно генетической теории по наследству могут передаваться только те новые признаки организма, которые возникли в результате случайной изменчивости генов. Лишь спустя 20 лет после описанных событий, после того как была разработана теория информации и разгадан принцип генетического кода, стало ясно, что мутации — это и есть та самая недетерминированная, непредсказуемая энтропийная составляющая, которую заключает в себе ген. Слово «мутации» было повторено тысячекратно и сторонниками и противниками генетической теории наследственности, выступившими на сессии ВАСХНИЛ. Таким образом, главным предметом разгоревшейся на этой сессии дискуссии была скрывавшаяся под именем мутации энтропия.
Присутствовавшие на сессии биологи представляли собой два лагеря, стоявших на противоположных идейных позициях: одни из них отстаивали принципиальную роль мутаций в механизме наследственности, другие же полностью отрицали эту роль.
Противники генетики считали, что, изменяя условия в нужную сторону, можно довольно легко получить, передать по наследству и закрепить в потомстве именно те полезные признаки, которые мы хотим получить. Стоит лишь вырастить несколько поколений пшеницы в условиях пониженной температуры, и сам собой образуется морозоустойчивый сорт. Или: уменьшая от поколения к поколению количество потребляемой растениями влаги, можно воспитывать засухоустойчивые сорта.
Изложенная доктрина — это не что иное, как возрождение отвергнутой Дарвином теории Ламарка, считавшего, что длинная шея жирафа образовалась потому, что многим поколениям жирафов приходилось тянуться к висящим высоко над землей плодам. Дарвин доказал, что приобретенные подобным образом признаки не передаются потомству. По наследству передаются только случайно возникшие признаки — вот в чем «гвоздь» теории Дарвина. Развивая и углубляя эту теорию, генетики пришли к выводу, что источником неопределенной изменчивости (так называл это явление Дарвин) являются случайные мутации генов.
Отрицая существование носителей наследственности — генов и в то же самое время провозглашая себя последовательными дарвинистами, противники генетики впадали в явное противоречие: на место дарвинизма они пытались поставить неоламаркизм.
В своей книге «Факторы эволюции» И. И. Шмальгаузен утверждал: «Возникновение отдельных мутаций имеет все признаки случайных явлений. Мы не можем ни предсказать, ни вызвать произвольно ту или иную мутацию». Сейчас под этими утверждениями подпишется каждый генетик. Они полностью подтверждаются достижениями генетики и кибернетики, точно соответствуют выводам, вытекающим из энтропийно-информационного анализа всех эволюционирующих систем.
Спустя много лет после выхода в свет упомянутой книги И. И. Шмальгаузена начала развиваться генная инженерия. Расшифровав генетический код, человек приобретает возможность вносить в него коррективы, путем сложных биохимических процессов изменять по своему усмотрению какую-то часть содержащихся в хромосомах молекулярных цепочек ДНК. В замененной части может содержаться новый наследственный признак, развитием которого человек решил управлять. Мы опускаем огромные трудности, связанные и с расшифровкой и с коррекциями «записей», содержащихся в гене. Вопрос ставится в принципе: можно ли наследственностью управлять? Да, можно: либо путем отбора мутаций генов, либо с помощью генной инженерии. В первом случае мы предоставляем «творческую инициативу» природе, во втором берем ее на себя. Эта разница принципиальна. Если мы хотим управлять предсказуемо, тогда мы должны сначала спроектировать в воображении будущий новый признак или будущий организм. Тем самым мы исключаем роль мутации генов — все «мутации» происходят в нашем воображении, в процессе «вынашивания проекта», по которому мы хотим создать новый видовой признак или новый биологический вид. Но в любом случае не обойтись без мутаций, так как именно они позволяют методом проб и ошибок найти наиболее соответствующий условиям (оптимальный) вариант.