Охота на электроовец. Большая книга искусственного интеллекта - Марков Сергей Николаевич
— Инженер: Я изобрёл новую вещь. Я называю её шариковой ручкой

— Народ в твиттере: О боже, люди могут писать с её помощью ужасные вещи, такие как дезинформация, пропаганда, разжигание ненависти. Запретить немедленно!
— Пишущие думеры [3088]: представьте, что каждый может получить шариковую ручку. Это может разрушить общество. Должен быть принят закон, запрещающий использование шариковой ручки для написания разжигающих ненависть высказываний. Введите регулирование применения шариковых ручек немедленно!
— Магнат карандашной индустрии: да, шариковые ручки очень опасны. В отличие от текста, написанного карандашом, который можно стереть, написанное шариковой ручкой остаётся навсегда. Правительство должно ввести лицензирование для производителей ручек [3089].
В начале апреля 2023 г. Лекун и Бенджио опубликовали получасовое видео с обсуждением идеи шестимесячного моратория (сойдясь на том, что такой мораторий является явно неудачной идеей), современной медийной шумихи вокруг ИИ и моды на ИИ‑думерство [3090].
С иронией воспринимают угрозу скорого захвата мира сверхинтеллектом Йошуа Бенджио [3091] (что не мешает ему серьёзно относиться к ИИ-рискам и подписывать открытые письма на эту тему), руководитель Алленовского института искусственного интеллекта (Allen Institute for AI, AI2) Орен Этциони [3092] и руководитель исследовательского отдела Microsoft Эрик Хорвитц [3093].
Известный американский предприниматель, инженер и изобретатель Марк Андриссен, сооснователь венчурного фонда «Андриссен Хоровиц» [Andreessen Horowitz], также яростно критикует ИИ-думеров. Он считает, что руководители технологических компаний заинтересованы в продвижении думерских взглядов, потому что они «могут заработать больше денег, если будут возведены нормативные барьеры, которые приведут к формированию картеля одобренных правительством поставщиков ИИ, защищённых от конкуренции с новыми стартапами и с [проектами с] открытым исходным кодом». Также Андриссен пишет, что экспертам по безопасности ИИ, специалистам по этике ИИ и исследователям рисков ИИ «платят за то, чтобы они были думерами, и их заявления должны восприниматься должным образом». Ссылаясь на статью [3094] в The Atlantic, в которой собрана большая коллекция высказываний инженеров и учёных, Андриссен подчёркивает, что многие лидеры в области исследований ИИ, этики, доверия и безопасности выразили явное несогласие с думерской повесткой дня и вместо этого сосредоточились на снижении сегодняшних задокументированных рисков ИИ-технологий. Андриссен с оптимизмом смотрит в будущее и утверждает, что ИИ может стать «способом сделать лучше всё, о чём мы заботимся» [3095]. Андриссен опубликовал небольшое эссе, в котором приводит краткий анализ нарративов, сформировавшихся в отношении проблематики ИИ-рисков, рассуждает о стоящих за их формированием социальных группах, а также об элементах правильной, по его мнению, политики в отношении развития ИИ [3096], [3097].
Основатель Facebook Марк Цукерберг также не разделяет пессимизма в отношении прогресса ИИ: «Я настроен оптимистически, — говорит он в одном из своих стримов, сопровождая рассуждения приготовлением барбекю. — Что до тех людей, которые испытывают скепсис [в отношении ИИ] и пытаются раздуть все эти сценарии судного дня, — я их просто не понимаю. Это совершенно неконструктивно, и в некотором смысле я считаю это довольно безответственным <…> Всякий раз, когда я слышу, как люди говорят, что искусственный интеллект причинит людям боль в будущем, я думаю, что да, вы знаете, технологии, как правило, всегда можно использовать как во благо, так и во вред, и вы должны быть осторожны при их разработке, должны внимательно относиться к тому, что именно вы создаёте, и как это будет использоваться, — развивает свою мысль Цукерберг, — Но я не понимаю людей, которые выступают за замедление прогресса в области ИИ, эта идея кажется мне весьма сомнительной» [3098].
Американский предприниматель Крис Николсон, сооснователь компании Skymind и один из авторов фреймворка Deeplearning4j, высказался на этот счёт более афористично: «Для людей из мира технологий рассуждения об искусственном интеллекте — это кокаин: они возбуждают и вызывают ничем не обоснованную паранойю» [Thinking about AI is the cocaine of technologists: it makes us excited, and needlessly paranoid] [3099].
Кто же прав? И что же следует делать человечеству в данной ситуации?
7.1.3 Варианты преодоления рисков развития ИИ
В своей знаменитой статье 2000 г. «Почему мы не нужны будущему» (Why the Future Doesn’t Need Us) для издания Wired Джой рисует мрачную картину превращения нашего мира в «серую слизь» [gray goo], что, по его мнению, станет результатом деятельности нанороботов. «Единственной практической альтернативой, которую я вижу, — пишет Джой, — является отказ: надо ограничить развитие слишком опасных технологий путём ограничения нашего стремления к определённым родам знаний» [3100].
Может, действительно стоит ввести ограничения на развитие технологий ИИ, подобные международным договорам о ядерном, биологическом и химическом оружии? По сути, такие договоры можно считать установлением ограничений на развитие физики, биологии и химии в военных целях.
Лично мне такой путь представляется не слишком реалистичным.
Во-первых, развитие технологий сложно ограничивать вообще. На уровне международных договоров можно разве что ввести подобный запрет для отдельных стран. Но, как показала практика, даже небольшая находящаяся в изоляции Северная Корея смогла создать ядерное оружие и ракетно-космическую программу. Поэтому если новая технология действительно может оказаться прорывной, то ведущие государства мира всё равно будут, несмотря на ограничения и запреты, развивать её в секретном режиме, и никто не сможет этому воспрепятствовать.
Во-вторых, неясно, как возможно ограничить развитие ИИ в нынешнее время — ведь развитие этой отрасли не требует каких-либо уникальных ресурсов и доступно многим государствам и компаниям. Не исключено, что универсальный ИИ можно будет создать при помощи машин общего назначения, предназначенных для решения повседневных задач. Поэтому попытки ограничения развития ИИ приведут к тому, что пострадают полезные применения ИИ (медицинское, образовательное и др.), при этом военные исследования как раз не пострадают.
Трудность запрета универсального ИИ подчёркивает в своей книге «Совместимость. Как контролировать искусственный интеллект» (Human Compatible: AI and the Problem of Control) уже знакомый нам профессор Стюарт Рассел:
Прогресс в разработке универсального ИИ достигается главным образом в дискуссиях учёных из исследовательских лабораторий по всему миру, по мере возникновения и решения математических задач. Мы не знаем заранее, какие идеи и уравнения запрещать, и, даже если бы знали, не приходится ожидать, что подобный запрет будет осуществимым или действенным.