Александр Лук - О чувстве юмора и остроумии
Таким образом, символическое представление выделенных нами приемов и их моделирование на электронно-вычислительной машине явится лишь верификацией, проверкой доброкачественности той «засыпки», о которой идет речь в книге. По результатам моделирования потребуется внести поправки и уточнения в предложенную классификацию, либо понадобится ее переработать, либо отбросить и заменить другой классификацией. Последняя возможность не исключена.
Всякая классификация временна и условна. Углубляются наши познания — и меняются классификации, поскольку они отражают не только объективную реальность, но и уровень нащих знаний об этой реальности.
Нам кажется, что изучение алгоритмов мышления не должно ограничиваться двумя-тремя классами задач. Фронт исследований должен быть как можно шире.
Тогда мы будем в состоянии ответить на немаловажный вопрос: можно ли правила мышления, выработанные при решении одного класса задач, с успехом применить к решению задач совсем в другой области? Интуитивно ясно, что да, можно. Но следует это доказать на конкретных примерах.
Мы обратились к изучению алгоритмов мышления при создании остроты. Это не случайно. Нас интересует взаимодействие чувства и мысли, а нигде, как нам кажется, не проявляется столь демонстративно неразрывное единство мысли и чувства, как бэтой специфической области словесного поведения.
Правда, задачи исследования в этой области трудны и неблагодарны. Мы писали, что остроту можно рассматривать как элементарную модель творческого акта. Но слово «элементарную» не должно ввести нас в заблуждение. Творческий процесс очень сложен в любых своих проявлениях. Не каждому дано открыть закон природы или изобрести новый механизм. Острота — наиболее распространенный акт творчества, наиболее общедоступный и простой, но все-таки еще достаточно сложный. А всеобщее мнение заключается в том, что на современных электронно-вычислительных машинах можно моделировать лишь простейшие психические функции человека; за сложные лучше пока не браться.
Оправдана ли такая чрезмерная осторожность? Сошлемся на один пример, который кажется нам весьма поучительным. Речь пойдет о работах Кларксона.[39]
Кларксон — представитель молодого поколения американских ученых, которые получили разностороннюю подготовку и являются специалистами в области психологии, вычислительной техники и программирования. Он задался целью промоделировать мышление финансового работника, опытного и квалифицированного руководителя одного из банков, человека, на обязанности которого — принимать благоразумные и наивыгоднейшие решения о покупке акций, о вложении (инвестиции) капитала в ту или иную отрасль промышленности.
Мы уже привыкли к высказываниям, что современные вычислительные машины моделируют лишь простейшие психические функции мозга, а сложная интеллектуальная деятельность, где огромную роль играет интуиция, машинам пока недоступна. Точно так же считали и коллеги Кларксона. Они скептически отнеслись к планам молодого ученого, причем доводы их выглядели довольно вескими: опытный банковский работник, давая совет своим клиентам о покупке тех или иных акций, руководствуется знанием финансового дела вообще, состоянием биржи, рыночной конъюнктурой, тенденциями подъема или спада в дайной отрасли промышленности. При этом он опирается на свой богатый опыт, у него есть особое финансовое «чутье». Все это слишком сложно. Недаром эти люди так высоко оплачиваются — их интеллектуальная деятельность считается весьма квалифицированной.
Но Кларксон не послушал скептиков. Он добился разрешения и три месяца провел в кабинете финансового «туза», внимательно приглядывался и прислушивался ко всему, записывал, размышлял и наконец пришел к выводу, что опытный финансист, давая советы клиентам банка о вложении капитала, учитывает всего 14 факторов.
Например, в банк обратилась вдова 46 лет, мать троих детей. Она хочет поместить капитал наилучшим образом, причем максимум прибыли ей нужен немедленно, сегодня же надо дать образование детям, платить за обучение в колледже. А если через 7 — 10 лет доходы снизятся, то это для нее не так важно.
А вот обращается одинокий пожилой мужчина. Он пока работает и в деньгах не нуждается. Но через 5 лет собирается выходить на пенсию и хочет отправиться путешествовать — повидать мир. Значит, ему нужны акции, которые пока пусть и не дают высоких дивидендов, по имеют хорошие перспективы через 4–5 лет.
Таким образом, учитываются возраст клиента, пол, семейное положение, нуждаемость в деньгах в ближайшем и отдаленном будущем.
Точно так же разбивается на рубрики все относящееся к экономической конъюнктуре, курсу акций и перспективам разных отраслей промышленности.
Затем все эти данные переводятся на язык программы, — на язык, доступный вычислительной машине. Проведя с этими данными большое число логических операций, машина выдает решение примерно такого типа: купить на 3000 долларов акций химической компании, на 4000 долларов электрической и на 3000 — водопроводной. Почему несколько видов акций? Опытный финансист никогда не посоветует вложить весь капитал в одно предприятие — в этом больше риска. Соответствующий фактор предусмотрен и в программе для вычислительной машины. Она тоже никогда не посоветует, как говорят американцы, «вложить все яйца в одну корзинку».
Кларксон проделал несколько сот опытов: вводил соответствующую информацию в вычислительную машину и получил рекомендацию от машины. А затем сравнивал ее с решением опытного банковского работника. Совпадение оказалось почти полным. А ведь в портфеле банка бывает до 1000 различных видов акций. Из этой 1000 машина выбрала те же 5–6 наименований, что и человек — квалифицированный и высокооплачиваемый.
Один только раз решение машины не совпало с решением человека. Причем выяснилось, что машина предложила более выгодный вариант.
После того как работа Кларксона завершена, можно, конечно, утверждать, что деятельность финансового работника не носит творческого характера, что она чисто формальна. Но ведь никто не говорил этого до того, как Кларксон добился успеха.
Между прочим, это обычная тактика противников кибернетики (они стали именовать себя противниками чрезмерных притязаний кибернетики). Они объявляют какую-либо сложную умственную деятельность недоступной для машины, бросают своеобразный вызов: вот вам истинно творческий труд, попробуйте его смоделировать. Затем, когда моделирование оказывается успешным, этот труд объявляется рутинным, нетворческим, формальным и выдвигается какая-нибудь новая задача в качестве «пробного камня». Однако опыт показывает, что нужна большая осторожность в предсказаниях. Нельзя рисовать ограничительный круг и утверждать: вот пределы, за которые «машинное мышление» никогда не выйдет. Сторонникам таких решительных предсказаний надо почаще вспоминать французскую поговорку: «Никогда не говорите никогда».
Если и есть психические функции, которые недоступны электронно-вычислительным машинам, то эта недоступность может быть доказана лишь в попытках промоделировать эти функции на ЭВМ. Поэтому надо работать, а не пытаться побить своих научных противников, выдергивая цитаты из канонизированных текстов.
На вопрос о пределах моделирования психики окончательный ответ даст только практика.
Любопытно, между прочим, проследить, как изменились взгляды и доводы противников «машинного мышления». Дошло до того, что некоторые физиологи вполне серьезно утверждают, будто «феномен пси» (о нем впервые заговорили исследователи телепатии) якобы обусловливает высшую психическую деятельность и выделяет человека из класса кибернетических машин. Следующим шагом будет, чего доброго, признать бессмертную душу человека, ибо по мере роста успехов моделирования психики придумывать отличия станет все труднее.
Мы так подробно рассказали о работе Кларксона, чтобы подчеркнуть: даже очень сложную интеллектуальную деятельность можно моделировать на ЭВМ. Но с остроумием дело обстоит не так просто. Если применить только двенадцать приемов, то остроты еще не будет, а будут выдаваться словосочетания, отвечающие формальным признакам. Среди них будут и остроумные. Можно ли предусмотреть в машине критическую оценку результатов по содержанию, чтобы машина сама отсеивала брак и не уподоблялась салонным дебилам?
Известно, что прежде чем научиться острить, человек должен сперва научиться говорить. То же самое можно сказать и об электронно-вычислительных машинах. Они должны сперва научиться «говорить». Мы уже упоминали, что существуют и совершенствуются программы построения осмысленных фраз. Но эти программы еще далеки от совершенства. А пока машина не «говорит», то учить ее острить преждевременно. Но что неосуществимо сегодня, может быть сделано завтра: ведь область «искусственного разума» развивается очень быстро. Не надо понимать дело так, что скоро появится машина для создания острот. Собственно, такую цель даже незачем ставить. Цель другая — изучение психических процессов и моделирование, как метод их изучения.