KnigaRead.com/
KnigaRead.com » Компьютеры и Интернет » Базы данных » Охота на электроовец. Большая книга искусственного интеллекта - Марков Сергей Николаевич

Охота на электроовец. Большая книга искусственного интеллекта - Марков Сергей Николаевич

На нашем сайте KnigaRead.com Вы можете абсолютно бесплатно читать книгу онлайн Марков Сергей Николаевич, "Охота на электроовец. Большая книга искусственного интеллекта" бесплатно, без регистрации.
Перейти на страницу:

Также правила содержат требования маркировки генеративного контента и наличия договора с пользователем на оказание соответствующих услуг.

В целом «Временные меры по управлению услугами генеративного искусственного интеллекта» вряд ли могут всерьёз замедлить развитие соответствующих сервисов в Китае, чего не скажешь о готовящемся законодательстве Евросоюза.

Если судить по текстам европейских законопроектов, то кажется, что их авторов заботило главным образом создание труднопроходимых барьеров для зарубежных сервисов.

Центральную роль в планируемой системе регулирования ИИ в Евросоюзе занимает документ под названием «Гармонизированные правила в отношении искусственного интеллекта (Закон об искусственном интеллекте)» [Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)], который был впервые представлен общественности в 2021 г. [3224] Подготовка к созданию документа началась ещё в 2018 г., когда была создана Экспертная группа высокого уровня по искусственному интеллекту (High-Level Expert Group on AI, HLEG), в состав которой вошли 52 известных эксперта.

Это весьма внушительный законопроект, состоящий (в редакции 2022 г.) из 85 статей и занимающий (вместе с предваряющими его общими соображениями по стратегии регулирования, а также предложениями по внесению поправок в некоторые связанные законы) 217 страниц [3225]. В ходе первого чтения в Европарламенте в июне 2023 г. к этому документу была принята 771 поправка (текст поправок занимает в общей сложности ещё 349 страниц) [3226].

Для того чтобы разъяснить логику законопроекта, авторы подготовили презентацию из 21 слайда (не обновлявшуюся, впрочем, с 2021 г.) [3227].

Давайте рассмотрим наиболее важные положения законопроекта, а затем попробуем разобраться в некоторых частностях.

Первым делом «Закон об искусственном интеллекте» требует обязательной сертификации систем ИИ до вывода их на рынок. В ходе сертификации должны быть выявлены риски, связанные с использованием данной системы, а сама система должна быть отнесена к одной из четырёх групп:

1. Системы с неприемлемым уровнем риска — в качестве примеров приводятся: дистанционная биометрия в общественных местах (с исключениями, касающимися защиты от преступлений и борьбы с терроризмом); системы распознавания эмоций в правоохранительных органах, пограничной службе, образовательных учреждениях и на рабочих местах; скоринг, где оценка может привести к проблемам для людей или групп людей в том социальном контексте, где данные изначально не собирались, или может привести к проблемам, несоразмерным совершённым поступкам. Эксплуатация систем такого рода категорически запрещена.

2. Высокорисковые системы («системы искусственного интеллекта, которые представляют значительный риск для здоровья, безопасности или основных прав людей») — например, системы, используемые в медицине или при найме сотрудников. Эксплуатация таких систем возможна, но только в строгом соответствии с установленными требованиями и после прохождения процедуры оценки соответствия системы этим требованиям.

3. Некоторые системы ИИ с особыми требованиями по обеспечению прозрачности (боты) — их эксплуатация разрешена при соблюдении требований по информированию и прозрачности.

4. Системы с минимальным уровнем риска или его отсутствием — их эксплуатация разрешается без ограничений.

В зависимости от группы, к которой будет отнесена та или иная система ИИ, к ней, её создателям и пользователям могут применяться разные требования. Например, разработчики высокорисковой системы должны:

• создать и внедрить систему менеджмента качества в своей организации;

• составить и поддерживать в актуальном состоянии техническую документацию по системе;

• вести журналирование операций [logging], чтобы пользователи могли контролировать работу системы;

• до ввода системы в эксплуатацию пройти оценку соответствия требованиям и, возможно, проходить повторные оценки системы (в случае значительных модификаций);

• зарегистрировать систему ИИ в базе данных Евросоюза;

• нанести маркировку CE и подписать декларацию соответствия;

• осуществлять мониторинг работы системы после вывода её на рынок;

• сотрудничать с органами надзора за рынком.

Каждое из подобных требований весьма подробно детализировано в законопроекте. Например, в нём для системы менеджмента качества приведён минимальный перечень из 13 аспектов, которые должны найти отражение в письменных правилах, процедурах и инструкциях.

Контроль соблюдения закона возлагается на национальные органы по надзору за рынком. Если орган надзора обнаруживает, что система ИИ не соответствует требованиям, изложенным в законе, он должен без промедления потребовать от оператора системы предпринять корректирующие действия и привести систему в соответствие либо вывести систему ИИ из эксплуатации в течение разумного периода, соразмерного характеру риска.

Значительная часть поправок, принятых в 2023 г., относится к вопросам регулирования разработки фундаментальных моделей. В соответствии с последней версией закона разработчики фундаментальных моделей обязаны среди прочего:

• продемонстрировать посредством соответствующего проектирования, тестирования и анализа выявление, снижение и смягчение разумно прогнозируемых рисков для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства закона; причём это должно осуществляться как до, так и на протяжении всего процесса разработки, для чего предлагается, например, привлекать независимых экспертов, а также тщательно документировать все неустранённые риски;

• обрабатывать и включать в обучающую выборку только те датасеты, в отношении которых можно применять подходящие для фундаментальных моделей методы управления данными, в частности меры по проверке пригодности источников, наличия смещений, а также меры по смягчению негативных последствий выявленных проблем;

• обеспечить достижение на протяжении всего жизненного цикла модели соответствующих уровней производительности, предсказуемости, интерпретируемости, корректируемости, безопасности и кибербезопасности, оцениваемых с помощью соответствующих методов, таких как оценка модели с привлечением независимых экспертов, документированный анализ и обширное тестирование в ходе концептуализации, проектирования и разработки;

• при проектировании и разработке модели использовать подходящие стандарты для снижения энергопотребления, использования ресурсов и производства отходов, а также для повышения энергоэффективности и общей эффективности системы; для всех создаваемых фундаментальных моделей должна существовать возможность измерения и регистрации потребления энергии и ресурсов, а также, если это технически возможно, другого воздействия на окружающую среду, которое может быть оказано в процессе развёртывания и эксплуатации системы на протяжении всего её жизненного цикла;

• составить обширную техническую документацию и понятные инструкции по использованию;

• создать систему управления качеством для обеспечения и документирования соблюдения закона;

Перейти на страницу:
Прокомментировать
Подтвердите что вы не робот:*