Охота на электроовец. Большая книга искусственного интеллекта - Марков Сергей Николаевич
Также правила содержат требования маркировки генеративного контента и наличия договора с пользователем на оказание соответствующих услуг.
В целом «Временные меры по управлению услугами генеративного искусственного интеллекта» вряд ли могут всерьёз замедлить развитие соответствующих сервисов в Китае, чего не скажешь о готовящемся законодательстве Евросоюза.
Если судить по текстам европейских законопроектов, то кажется, что их авторов заботило главным образом создание труднопроходимых барьеров для зарубежных сервисов.
Центральную роль в планируемой системе регулирования ИИ в Евросоюзе занимает документ под названием «Гармонизированные правила в отношении искусственного интеллекта (Закон об искусственном интеллекте)» [Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)], который был впервые представлен общественности в 2021 г. [3224] Подготовка к созданию документа началась ещё в 2018 г., когда была создана Экспертная группа высокого уровня по искусственному интеллекту (High-Level Expert Group on AI, HLEG), в состав которой вошли 52 известных эксперта.
Это весьма внушительный законопроект, состоящий (в редакции 2022 г.) из 85 статей и занимающий (вместе с предваряющими его общими соображениями по стратегии регулирования, а также предложениями по внесению поправок в некоторые связанные законы) 217 страниц [3225]. В ходе первого чтения в Европарламенте в июне 2023 г. к этому документу была принята 771 поправка (текст поправок занимает в общей сложности ещё 349 страниц) [3226].
Для того чтобы разъяснить логику законопроекта, авторы подготовили презентацию из 21 слайда (не обновлявшуюся, впрочем, с 2021 г.) [3227].
Давайте рассмотрим наиболее важные положения законопроекта, а затем попробуем разобраться в некоторых частностях.
Первым делом «Закон об искусственном интеллекте» требует обязательной сертификации систем ИИ до вывода их на рынок. В ходе сертификации должны быть выявлены риски, связанные с использованием данной системы, а сама система должна быть отнесена к одной из четырёх групп:
1. Системы с неприемлемым уровнем риска — в качестве примеров приводятся: дистанционная биометрия в общественных местах (с исключениями, касающимися защиты от преступлений и борьбы с терроризмом); системы распознавания эмоций в правоохранительных органах, пограничной службе, образовательных учреждениях и на рабочих местах; скоринг, где оценка может привести к проблемам для людей или групп людей в том социальном контексте, где данные изначально не собирались, или может привести к проблемам, несоразмерным совершённым поступкам. Эксплуатация систем такого рода категорически запрещена.
2. Высокорисковые системы («системы искусственного интеллекта, которые представляют значительный риск для здоровья, безопасности или основных прав людей») — например, системы, используемые в медицине или при найме сотрудников. Эксплуатация таких систем возможна, но только в строгом соответствии с установленными требованиями и после прохождения процедуры оценки соответствия системы этим требованиям.
3. Некоторые системы ИИ с особыми требованиями по обеспечению прозрачности (боты) — их эксплуатация разрешена при соблюдении требований по информированию и прозрачности.
4. Системы с минимальным уровнем риска или его отсутствием — их эксплуатация разрешается без ограничений.
В зависимости от группы, к которой будет отнесена та или иная система ИИ, к ней, её создателям и пользователям могут применяться разные требования. Например, разработчики высокорисковой системы должны:
• создать и внедрить систему менеджмента качества в своей организации;
• составить и поддерживать в актуальном состоянии техническую документацию по системе;
• вести журналирование операций [logging], чтобы пользователи могли контролировать работу системы;
• до ввода системы в эксплуатацию пройти оценку соответствия требованиям и, возможно, проходить повторные оценки системы (в случае значительных модификаций);
• зарегистрировать систему ИИ в базе данных Евросоюза;
• нанести маркировку CE и подписать декларацию соответствия;
• осуществлять мониторинг работы системы после вывода её на рынок;
• сотрудничать с органами надзора за рынком.
Каждое из подобных требований весьма подробно детализировано в законопроекте. Например, в нём для системы менеджмента качества приведён минимальный перечень из 13 аспектов, которые должны найти отражение в письменных правилах, процедурах и инструкциях.
Контроль соблюдения закона возлагается на национальные органы по надзору за рынком. Если орган надзора обнаруживает, что система ИИ не соответствует требованиям, изложенным в законе, он должен без промедления потребовать от оператора системы предпринять корректирующие действия и привести систему в соответствие либо вывести систему ИИ из эксплуатации в течение разумного периода, соразмерного характеру риска.
Значительная часть поправок, принятых в 2023 г., относится к вопросам регулирования разработки фундаментальных моделей. В соответствии с последней версией закона разработчики фундаментальных моделей обязаны среди прочего:
• продемонстрировать посредством соответствующего проектирования, тестирования и анализа выявление, снижение и смягчение разумно прогнозируемых рисков для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства закона; причём это должно осуществляться как до, так и на протяжении всего процесса разработки, для чего предлагается, например, привлекать независимых экспертов, а также тщательно документировать все неустранённые риски;
• обрабатывать и включать в обучающую выборку только те датасеты, в отношении которых можно применять подходящие для фундаментальных моделей методы управления данными, в частности меры по проверке пригодности источников, наличия смещений, а также меры по смягчению негативных последствий выявленных проблем;
• обеспечить достижение на протяжении всего жизненного цикла модели соответствующих уровней производительности, предсказуемости, интерпретируемости, корректируемости, безопасности и кибербезопасности, оцениваемых с помощью соответствующих методов, таких как оценка модели с привлечением независимых экспертов, документированный анализ и обширное тестирование в ходе концептуализации, проектирования и разработки;
• при проектировании и разработке модели использовать подходящие стандарты для снижения энергопотребления, использования ресурсов и производства отходов, а также для повышения энергоэффективности и общей эффективности системы; для всех создаваемых фундаментальных моделей должна существовать возможность измерения и регистрации потребления энергии и ресурсов, а также, если это технически возможно, другого воздействия на окружающую среду, которое может быть оказано в процессе развёртывания и эксплуатации системы на протяжении всего её жизненного цикла;
• составить обширную техническую документацию и понятные инструкции по использованию;
• создать систему управления качеством для обеспечения и документирования соблюдения закона;