Охота на электроовец. Большая книга искусственного интеллекта - Сергей Сергеевич Марков
При этом «проинновационность», вынесенная в заголовок документа, проявляется среди прочего в том, что правительство отказывается от закрепления вышеперечисленных принципов на законодательном уровне, поскольку «новые жёсткие и обременительные законодательные требования к бизнесу могут сдерживать инновации в области ИИ и снижать нашу способность быстро и соразмерно реагировать на будущие технологические вызовы».
Значительно большую активность в области регулирования ИИ проявили власти США.
Хотя единый федеральный закон, направленный на эту область, так и не появился (вместо этого законодатели обозначили курс на точечное регулирование отдельных сервисов), ими был разработан и принят целый ряд других, весьма любопытных документов. Прежде всего следует упомянуть «Закон о национальной инициативе в области ИИ» [The National AI Initiative Act of 2020][3209], вступивший в силу 1 января 2021 г., посвящённый формированию долгосрочной федеральной программы, направленной на ускорение исследований и разработок в области ИИ, в частности, в целях экономической и национальной безопасности Соединённых Штатов.
Также следует отметить два других важных документа, принятых на федеральном уровне. Первый — «Документ по управлению ИИ-рисками» [AI Risk Management Framework][3210], выпущенный в январе 2023 г. Национальным институтом стандартов и технологий США. Разработка этого обширного документа была начата ещё в 2021 г. Он не только содержит в себе определения ИИ, ИИ-рисков и других важных с прикладной точки зрения терминов, но и описывает специфику ИИ-рисков по отношению к традиционным рискам, связанным с программным обеспечением [Traditional Software Risks], а также основные функции и методы риск-менеджмента в области ИИ.
Второй документ — выпущенное в 2022 г. Управлением научной и технологической политики [Office of Science and Technology Policy] правительства США «Руководство по разработке билля о правах, связанных с ИИ» [Blueprint for an AI Bill of Rights][3211]. Оно посвящено главным образом защите прав населения в алгоритмическом обществе (вопросам защиты от алгоритмической дискриминации, обеспечения конфиденциальности данных и т. д.).
Кроме того, законы об ИИ на момент написания книги приняты на уровне отдельных штатов в Алабаме, Колорадо, Иллинойсе, Миссисипи и Вермонте, на стадии рассмотрения находятся аналогичные законодательные акты в Калифорнии, Джорджии, на Гавайях, в Мэриленде, Нью-Джерси, Род-Айленде, Нью-Йорке и Вашингтоне. Также на счету американских законодателей различные местные законы и несколько проваленных актов на уровне штатов. В целом общее число законодательных инициатив в области ИИ здесь давно перевалило за сотню[3212].
В конце октября 2023 г. Белый дом опубликовал[3213], [3214], [3215] президентский «Указ о безопасной, защищённой и надёжной разработке и использовании искусственного интеллекта» [Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence]. Заместитель руководителя аппарата Белого дома Брюс Рид заявил, что содержащиеся в указе директивы представляют собой «набор самых жёстких мер, которые когда-либо предпринимало какое-либо правительство в мире» по защите граждан от влияния ИИ. Давайте рассмотрим важные положения указа:
1. Разработчики продвинутых систем ИИ, представляющих серьёзный риск для национальной безопасности, национальной экономической безопасности или здравоохранения, должны уведомлять правительство об обучении моделей, а также раскрывать федеральному правительству результаты своих тестов безопасности. При этом разработка методики тестирования возложена на NIST. Отдельно предполагается разработка стандартов «проверки биологического синтеза» для защиты от «опасных биологических материалов», синтезируемых с помощью ИИ.
2. Уведомление властей о строительстве вычислительных кластеров, если их вычислительная мощность превышает 1020 флопс.
3. Маркировка контента, генерируемого с помощью ИИ (например, водяными знаками). Разработка правил и методов маркировки возложена на Министерство торговли США.
4. Разработка расширенной программы кибербезопасности для создания инструментов искусственного интеллекта для устранения уязвимостей в критически важном программном обеспечении (на основе существующей программы «Кибервызов ИИ» [AI Cyber Challenge]).
5. Защита конфиденциальных данных и нацеленность на то, чтобы обучение систем ИИ на подобных наборах данных не приводило к нарушениям. При этом для возможности полноценно обеспечить защиту конфиденциальности Белый дом призывает Конгресс принять федеральный закон.
6. Борьба с алгоритмической предвзятостью: будут созданы и распространены инструкции по недопущению дискриминации в результате применения систем ИИ. Также правительство будет внедрять лучшие практики по устранению такой дискриминации, а администрация президента рассмотрит вопрос об использовании ИИ при вынесении приговоров в системе уголовного правосудия.
7. Программа по привлечению лучших мировых талантов, включающая в себя совершенствование визовых критериев для иммигрантов, обладающих опытом в области ИИ.
8. Поддержка работников, уязвимых в связи с развитием технологий ИИ.
Интересно, что указ содержит для первого пункта критерии для моделей, подпадающих под его действие. Информирование государства необходимо лишь в тех случаях, если для обучения модели планируется затратить более 1026 целочисленных операций или операций с плавающей запятой. Если же при обучении модели в качестве обучающих данных планируется использовать биологические последовательности, то порог обязательного информирования снижается до 1023 операций. Много это или мало? Вычислительный бюджет обучения модели LLama 2 с 70 млрд параметров составил порядка 1,1 × 1024 операций с плавающей запятой[3216], то есть примерно в 100 раз меньше установленного порога. Производительность самого быстрого в мире суперкомпьютера Frontier составляет около 1,68 × 1018 флопс. Таким образом, в мире пока что нет вычислительных кластеров, которые подпадали бы под действие вышедшего указа.
США не единственная страна, где регулирование ИИ присутствует даже на региональном уровне. Региональные законы, посвящённые ИИ, есть, например, в Китае, к их числу относятся «Положение о продвижении индустрии ИИ в Шэньчжэне» и «Шанхайские правила содействия развитию индустрии ИИ».
Китайская модель регулирования ИИ в целом похожа на американскую. Согласно «Плану по развитию ИИ нового поколения» «зонтичные» нормы в сфере ИИ должны быть приняты к 2025 г. В 2021 г. Министерство науки и технологий Китая выпустило «Руководящие этические принципы по регулированию ИИ». Под влиянием прогресса в области генеративных моделей появились на свет «Положение об управлении информационными интернет-сервисами, использующими технологии глубокого синтеза[3217]»[3218] и «Временные меры по управлению сервисами генеративного искусственного интеллекта»[3219], разработанные Администрацией киберпространства Китая соответственно в 2022 и 2023 гг.
Последний документ вызвал самое бурное обсуждение, западная пресса взорвалась заголовками: «Китай обязывает ИИ следовать „основным ценностям социализма“» [China mandates that AI must follow “core values of socialism”][3220], «Китай анонсирует правила, в соответствии с которыми ИИ должен быть связан „основными ценностями социализма“» [China announces rules to keep AI bound by ‘core socialist values’][3221], «Китай заявляет, что чат-боты должны придерживаться линии партии» [China Says Chatbots Must Toe the Party Line][3222] и так далее. Действительно, статья 4 говорит буквально следующее:
Предоставление и использование