Роджер Пенроуз - Новый ум короля: О компьютерах, мышлении и законах физики
Подход к понятиям «удовольствия» и «боли» с позиций ИИ
Согласно одному из распространенных убеждений, ИИ может указать нам путь к своего рода пониманию таких категорий восприятия, как счастье, боль, голод. Возьмем, к примеру, черепашку Грэя Уолтера. Когда ее батареи садятся, ее поведение изменяется и она начинает действовать так, чтобы пополнить запас своей энергии. Здесь есть явная аналогия с тем, как человеческое существо — или любое другое животное — стало бы вести себя, ощутив голод. Похоже, мы не слишком сильно погрешим против языка, если скажем, что черепашка Грэя Уолтера была голодной, когда она действовала упомянутым образом. Некое устройство внутри нее, способное «ощущать» уровень заряда в батареях, заставляло ее переключаться в другой режим функционирования, когда заряд опускался ниже некоторой отметки. Нет причин сомневаться в том, что подобный механизм включается и в голодных животных, но с единственной разницей — изменения модели поведения в этом случае более сложны и деликатны. Вместо простого переключения с одного режима на другой здесь происходит смена направленности действий; и эти изменения усиливаются (до определенной степени) по мере того, как нарастает необходимость восстановить запасы энергии.
Исходя из этого, некоторые приверженцы ИИ утверждают, что такие понятия, как боль или счастье, могут быть смоделированы аналогичным образом. Давайте упростим задачу и будем рассматривать линейную шкалу «чувств», простирающуюся от крайней «боли» (отметка: -100) до абсолютного «удовольствия» (отметка: +100). Представим далее, что у нас есть устройство — какая-нибудь машина, предположительно электронная, — которая располагает средствами для регистрации собственного (условного) показателя «боль — удовольствие», который я буду называть «бу-показатель». Устройство это должно иметь определенные модели поведения и входные данные, как внутренние (типа состояния батарей), так и внешние. Идея заключается в том, что все действия машины должны быть подчинены критерию максимизации ее бу-показателя. Факторов, влияющих на его величину, может быть множество. Мы, конечно же, можем сделать одним из них уровень заряда батарей, так, чтобы низкий уровень давал отрицательный вклад, а высокий — положительный; но могут существовать и другие факторы. Возможно, наше устройство несет на себе солнечные батареи, которые дают альтернативный источник энергии, при активации которого аккумуляторы перестают использоваться. Мы можем задать такую программу действий, при которой движение к свету будет немного увеличивать бу-показатель устройства — что оно и будет стремиться делать при отсутствии иных факторов. (Хотя, на самом деле, черепашка Грэя Уолтера, как правило, избегала света!) Ему потребуются какие-нибудь средства для выполнения вычислений, позволяющих оценивать последствия тех или иных действий в терминах величины бу-показателя. В дополнении к этому оно может уметь вводить вероятностные веса, так, чтобы в зависимости от достоверности исходных данных вычисления давали больший или меньший вклад в бу-показатель.
Помимо этого нашему устройству необходимо будет задать еще и дополнительные «цели», отличные от поддержания уровня его энергетических запасов, поскольку в противном случае мы не сможем отделить «боль» от «голода». Естественно, было бы слишком требовать от нашего механизма способности к размножению, поэтому давайте пока забудем о сексе! Но, возможно, мы могли бы имплантировать ему «желание» общения с аналогичными устройствами, приписывая таким встречам положительное значение бу-показателя. Или же мы можем заложить в него чистую «жажду знаний», когда даже простое накопление фактов об окружающем мире имело бы положительный эффект на величину бу-показателя. (Действуя из эгоистических побуждений, мы могли бы сделать так, что этот показатель увеличивался бы в результате оказания нам различных услуг — в точности, как при создании робота-слуги!) Можно было бы расценивать такой подход к назначению «целей» как искусственный, поскольку мы руководствуемся здесь разве что своими капризам. Но, в действительности, это не слишком уж отличается от способа, которым нам как индивидуумам определяются «цели» в процессе естественного отбора, где главенствующим фактором является необходимость распространять наши гены.
Предположим теперь; что мы благополучно создали наше устройство, учтя все вышеизложенные требования. Но есть ли у нас основания утверждать, что оно будет и вправду чувствовать удовольствие при положительном, а боль — при отрицательном значениях бу-показателя? С позиций ИИ (т. е. с операционалистской точки зрения), мы должны судить об этом просто по тому, как устройство себя ведет. Раз она действует с таким расчетом, чтобы увеличить свой бу-показатель настолько, насколько это возможно (и удерживать его на этом уровне максимально продолжительное время), и, соответственно избегать его отрицательных значений, то было бы разумным определить чувство удовольствия как степень положительности бу-показателя, а чувство боли — как степень его отрицательности. «Обоснованность» этого метода определения вытекает из полного сходства такого поведения с реакциями человека на удовольствие или боль. Конечно же, человеческие существа, как известно, далеко не так примитивны: иногда мы, кажется, намеренно не избавляемся от боли или избегаем некоторых удовольствий. Очевидно, что в наших действиях мы руководствуемся гораздо более сложными критериями (см. Деннетг [1978]). Но в качестве очень грубой аппроксимации можно считать, что все-таки в большинстве случаев мы стараемся избегать боли и получать удовольствие. Для операционалиста этого было бы достаточно, чтобы оправдать — в таком же приближении — идентификацию бу-показателя нашего устройства с его рейтингом по шкале «боль-удовольствие». Возможность установления подобных соответствий — одно из направлений теории ИИ.
Вопрос, который мы должны задать: правда ли, что наше устройство может по-настоящему чувствовать боль, если его бу-показатель отрицателен, и удовольствие в противном случае? Да и способно ли оно чувствовать хоть что-нибудь вообще? Операционалист, конечно, сказал бы «Естественно, да!»; либо отбросил бы этот вопрос как бессмысленный. Но мне представляется, что здесь есть серьезный и сложный вопрос, который необходимо рассмотреть. На наши действие влияет множество разнообразных факторов. Некоторые из них осознанные, как боль или удовольствие, тогда как другие мы не воспринимаем сознанием. Это наглядно иллюстрируется примером человека, касающегося раскаленной плиты. Приводится в действие механизм, который заставляет человека непроизвольно отдернуть руку еще до того, как он почувствовал боль. Вполне может оказаться, что такие спонтанные действия гораздо ближе по своей природе к реакциям нашего устройства, обусловленным его бу-показателем, чем те, которые действительно вызваны болью или удовольствием.
При описании поведения машин часто — и, обычно, в шутку — используются «человеческие» понятия: «Моя машина не хотела заводиться сегодня утром»; или «Мои часы до сих пор думают, что они идут по калифорнийскому времени»; или «Мой компьютер заявляет, что не понимает последнюю команду и не знает, что делать дальше». Конечно же, мы никоим образом не подразумеваем, что машина действительно может чего-либо хотеть, часы — что-то думать, а компьютер[30] — о чем бы то ни было заявлять, а также понимать или даже знать, что он делает. Тем не менее подобные выражения могут быть поистине информативными и способствовать нашему пониманию, при условии, что мы их будем рассматривать только в том духе, в котором будем их произносить, а не в буквальном смысле слова. Я всегда занимаю в целом аналогичную позицию по отношению к различным заявлениям сторонников ИИ о том, что сконструированные человеком устройства могут обладать характеристиками сознания — безотносительно от того, что под этим подразумевается! Если я согласен говорить, что черепашка Грэя Уолтера может быть голодной, то только лишь в полушутливом тоне. И если я готов использовать такие термины типа «боль» или «удовольствие», связывая их с бу-показателем некоторого устройства, как я это делал выше, то единственная причина этому заключается в том, что эти выражения облегчают мое понимание поведения устройства благодаря определенным аналогиям с моим собственным поведением и состояниями сознания. Причем здесь я ни в коем случае не подразумеваю, что эти аналогии особенно близки, или что не существует прочих — нерегистрируемых сознанием — явлений, которые влияют на мое поведение гораздо более схожим образом.