KnigaRead.com/

Митио Каку - Будущее разума

На нашем сайте KnigaRead.com Вы можете абсолютно бесплатно читать книгу онлайн Митио Каку, "Будущее разума" бесплатно, без регистрации.
Перейти на страницу:

Возникает также этическая дилемма в связи с роботами, отражающими взгляды своих хозяев, которые могут сильно различаться по моральным и социальным нормам. Сегодняшние «культурные войны» в обществе только усилятся, если появятся роботы, разделяющие взгляды и верования хозяев. В определенном смысле этот конфликт неизбежен. Роботы – механическое продолжение мыслей и желаний своих создателей, и когда они станут достаточно сложными, чтобы принимать моральные решения, они будут это делать.

Общество может столкнуться с неочевидными сегодня и неожиданными проблемами, когда роботы начнут демонстрировать поведение, бросающее вызов нашим ценностям и целям. Роботы, принадлежащие юнцам, расходящимся с шумного рок-концерта, могут вступить в конфликт с роботами, принадлежащими пожилым жителям тихого района. Первые, может быть, будут запрограммированы на громкое воспроизведение модной музыки, а вторые – на сохранение тишины. Роботы, принадлежащие набожным людям, могут не сойтись во мнениях с роботами, принадлежащими атеистам. Роботы разных национальностей и культур могут быть сконструированы так, чтобы отражать соответствующие культурные стереотипы, и это понравится далеко не всем (в том числе и людям, не говоря уже о роботах.)

Итак, как нужно программировать роботов, чтобы избежать подобных конфликтов?

Это невозможно. Попросту говоря, роботы неизбежно будут отражать предпочтения и предрассудки своих создателей. В конце концов культурные и этические противоречия между роботами придется разрешать в судах. Никакие законы природы или науки не решат за нас моральные вопросы, так что в итоге для разрешения подобных социальных конфликтов придется писать соответствующие законы. Роботы не смогут решить моральные дилеммы, созданные людьми. Более того, появление роботов может их обострить.

Но если роботы смогут принимать этические и юридические решения, то в состоянии ли они чувствовать и понимать чувства других? Если роботу удастся кого-нибудь спасти, обрадуется ли он этому? Или сможет ли робот хотя бы осознать, что такое красный цвет? Холодный анализ ситуации и решение о том, кого нужно спасать, – это одно, а понимание и сочувствие – совсем другое. Так могут ли роботы чувствовать?

Понимание или чувство?

На протяжении столетий выдвигалось множество теорий о том, может ли машина думать и чувствовать. Философия, которой придерживаюсь лично я, называется «конструктивизм» и состоит в том, что вместо бесконечного обсуждения этого вопроса (а оно бессмысленно) нам следует направить свою энергию на создание реального автомата и посмотреть, как далеко нам удастся зайти. В противном случае мы увязнем в бесконечных философских дебатах, разрешить которые окончательно невозможно. Преимущества науки в том, что, когда все сказано и сделано, можно провести эксперимент и найти решение проблемы.

Таким образом, чтобы понять, смогут ли роботы думать, следует, вероятно, сделать робота и посмотреть, что получится. Некоторые исследователи, однако, заранее уверены, что машины никогда не научатся думать, как люди. Самый сильный их аргумент заключается в том, что, хотя робот способен манипулировать фактами быстрее, чем человек, он не «понимает», что делает. Он может работать с ощущениями (такими как цвет или звук) лучше человека, но не может по-настоящему «чувствовать» или «воспринимать» суть этих ощущений.

Так, философ Дэвид Чалмерс разделил проблемы искусственного интеллекта на две категории – проблемы простые и сложные. Проблемы простые – это создание машин, способных имитировать все больше человеческих способностей, таких как игра в шахматы, сложение чисел, распознавание определенных закономерностей и т. п. Проблемы сложные включают, в частности, создание машин, способных понимать чувства и субъективные ощущения, так называемые «квалиа».

Точно так, как невозможно объяснить, что такое красный цвет, слепому, так и робот никогда не сможет испытать субъективное ощущение красного цвета, говорят сторонники такой точки зрения. Даже если компьютер и сможет, наверное, быстро перевести китайские слова на английский, он никогда не сможет понять то, что переводит. В этой картине мира роботы напоминают улучшенные магнитофоны или счетные машины, способные воспроизводить информацию и оперировать ею с невероятной точностью, но без всякого понимания.

Эти аргументы следует принимать всерьез, но существует и другая точка зрения на вопрос квалиа и субъективного опыта. В будущем машины, скорее всего, научатся воспринимать такие вещи, как красный цвет, много лучше любого человека. Робот сможет описать физические свойства красного и даже поэтически использовать его в образной фразе. Но «почувствует» ли робот красный цвет? Вопрос лишается смысла, поскольку слово «чувствовать» точно не определено. В какой-то момент, когда сделанное роботом описание красного цвета окажется лучше сделанного человеком, робот сможет с полным правом спросить: а понимают ли люди по-настоящему красный цвет? Может быть, они не в состоянии понять его со всеми нюансами и столь же тонко, как робот.

Как сказал однажды бихевиорист Б. Ф. Скиннер: «Настоящая проблема не в том, думают ли машины, а в том, думают ли люди».

К тому же это только вопрос времени, когда роботы научатся определять китайские слова и использовать их в контексте намного лучше любого человека. В этот момент будет уже неважно, «понимает» ли робот китайский язык. Для практических целей компьютер будет владеть китайским лучше человека. Иными словами, слово «понимать» тоже точно не определено.

Однажды, когда роботы превзойдут нас по способности манипулировать словами и ощущениями, вопрос о том, «понимают» ли они их и «чувствуют» ли, лишится смысла. Это будет уже неважно.

Математик Джон фон Нейман сказал: «В математике не нужно понимать. Нужно просто привыкнуть».

Так что проблема не в «железе», а в природе человеческого языка, в котором слова, не определенные точно, для разных людей означают разное. Великого физика Нильса Бора однажды спросили, как можно понять глубокие парадоксы квантовой теории. Ответ, сказал Бор, заключается в том, как вы определите слово «понять».

Философ Дэниел Деннетт из Университета Тафтса написал: «Объективный тест, который позволил бы отличить умного робота от сознательного человека, невозможен. Так что у вас есть выбор: либо держаться за сложные проблемы, либо покачать головой и забыть о них. Просто перестать о них думать».

Иными словами, сложных проблем нет.

Для конструктивистской философии смысл не в том, чтобы спорить, может ли машина «почувствовать» красный цвет, а в том, чтобы сконструировать такую машину. В этой системе существует континуум уровней, описывающих слова «понимать» и «чувствовать» (это означает, что может оказаться возможной даже численная оценка степени понимания или ощущения). На одном конце шкалы мы имеем неуклюжих сегодняшних роботов, способных манипулировать в лучшем случае несколькими символами. На другом конце – человек, который гордится тем, что ощущает квалиа. Но время идет, и когда-нибудь роботы научатся лучше нас описывать ощущения на любом уровне. Вот тогда-то и станет ясно со всей очевидностью, что́ роботы понимают.

Именно такая философия стоит за знаменитым тестом Тьюринга. Алан Тьюринг предсказал, что однажды будет создана машина, способная ответить на любой вопрос так, чтобы по ответам ее невозможно было отличить от человека. Тьюринг говорил: «Компьютер тогда будет заслуживать наименования разумного, когда сможет обмануть человека и заставить его поверить, что он тоже человек».

Физик и нобелевский лауреат Фрэнсис Крик сказал об этом лучше всех. Последние сто лет, отметил он, биологи горячо спорили над вопросом «Что есть жизнь?». Теперь, когда мы многое узнали о ДНК, ученые понимают, что вопрос задан недостаточно точно. Сегодня вопрос «Что есть жизнь?» попросту ушел в тень. То же может со временем произойти с ощущением и пониманием.

Самосознание роботов

Какие шаги необходимо предпринять, прежде чем компьютеры, такие как Watson, осознают себя? Для ответа на этот вопрос нам придется вернуться к нашему определению самосознания как способности ввести себя в модель окружающего мира, а затем смоделировать будущее этого мира для достижения некой цели. Для первого шага – создания модели – требуется очень высокий уровень здравого смысла, позволяющий предвидеть различные варианты событий. Затем робот должен поместить себя внутрь этой модели, для чего требуется понимание различных вариантов действий, которые могут при этом потребоваться.

В Университете Мэйдзи (Япония) ученые уже сделали первые шаги к созданию робота с самосознанием. Это, конечно, программа-максимум, но ученые считают, что смогут ее выполнить путем создания роботов с теорией разума. Начали они с двух роботов. Первый из них был запрограммирован на выполнение определенных движений. Второй – на наблюдение за первым роботом и копирование его действий. Исследователям удалось сконструировать робота, который мог имитировать поведение другого робота, просто наблюдая за ним. Впервые в истории робот был создан специально для того, чтобы каким-то образом осознавать себя. Второй робот владеет теорией разума, т. е. он способен наблюдать за другим роботом и копировать его действия.

Перейти на страницу:
Прокомментировать
Подтвердите что вы не робот:*