Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами - Руслан Геннадьевич Юсуфов
В Китае приняты три наиболее конкретных и действенных нормативных акта в отношении алгоритмов ИИ:
• постановление 2021 года об алгоритмах рекомендаций;
• правила о синтетически сгенерированном контенте 2022 года;
• проект правил 2023 года о генеративном ИИ.
Доступ к ChatGPT ограничен в сетях и на устройствах государственных школ Нью-Йорка, а также в России, Иране, КНДР, Кубе и Сирии.
Риски, связанные с искусственным интеллектом, зачастую похожи на фобию – боязнь нового, еще непознанного. Полный отказ или серьезные ограничения ИИ малоперспективны и похожи на заведомо провальную попытку запретить технический прогресс, который всегда сопровождается появлением новых вызовов и решением связанных с ними проблем: сначала появился меч, потом щит; сначала болезнь, потом лекарство; сначала преступники, потом тюрьмы. Кроме того, страны и организации, останавливающие развитие искусственного интеллекта, прежде всего наносят удар по самим себе.
Запрет искусственного интеллекта в эпоху интернета трудно реализовать технически, поскольку технологии распространяются лавинообразно. Например, в странах с ограничениями пользователи обходят запрет с помощью средств анонимизации и виртуальных телефонных номеров. Согласно сетевым метрикам, несмотря на ограничение доступа к ChatGPT, API OpenAI остается частично доступным в Италии. При этом геоблокировка затрагивает веб-версию ChatGPT, но не влияет на доступ к чат-боту поисковой системы Microsoft Bing, также основанному на GPT-4 от OpenAI. Наконец, запреты неизбежно приведут к появлению и расширению черного рынка алгоритмов, моделей и решений.
Люди, попробовавшие искусственный интеллект и увлекшиеся его возможностями, будут искать обходные пути для получения доступа к нему. Он похож на новый наркотик, опасность которого выше, когда его нет, чем когда он есть. Так, американская певица и композитор Лори Андерсон поделилась в интервью, что «полностью, на 100 % подсела» на чат-бота, который эмулирует словарь и стиль ее умершего в 2013 году супруга Лу Рида, одного из наиболее влиятельных музыкантов прото-панка и глэм-рока.
Искусственный интеллект с каждый годом будет все реалистичнее имитировать общение с умершими близкими – для создания цифровых клонов пригодятся переписки и публикации в социальных сетях, записи голоса, фотографии и видеоматериалы. Они поддержат в трудную минуту, позволят внукам пообщаться с умершим дедушкой или собрать несколько поколений ушедших родственников на семейном ужине – с совершенно непредсказуемыми долгосрочными последствиями для психики живых участников.
Возможный сценарий «Интеллект по рецепту»
Запрет искусственного интеллекта – Национализация
2024 год – Волна инцидентов с ИИ вызывает общественное недоверие к технологии.
2025 год – Принятие жестких законов, ограничивающих разработку и использование ИИ.
Под давлением общественности и по результатам работы создаваемых для сертификации систем ИИ национальных регуляторов корпорации сворачивают наиболее амбициозные проекты в этой области, но продолжают закрытые разработки. В большинстве стран мира вводятся законодательные и корпоративные запреты на использование ИИ и мощных нейросетей. Применение уже разработанных продуктов ставят на паузу или ограничивают решением только регламентированных задач. Существующие продукты на основе ИИ декларируют в специальных реестрах, а спецкомиссии проверяют любые ИИ-решения, подобно лекарственным препаратам: последствия их воздействия на человека, соответствие юридическим, политическим и религиозным нормам. После сертификации компании получают лицензию, которая может быть отозвана в любой момент из-за нарушения условий использования продукта или обнаружения каких-либо ранее неизвестных результатов. Пользователи ИИ также несут правовую ответственность за распространение и применение по назначению как самого продукта, так и результатов его работы.
2026 год – Формируется теневой рынок несертифицированных решений на базе ИИ.
2027 год – Прогресс легальных ИИ-исследований замедляется из-за бюрократизации.
Формируется глобальный консенсус об ограничении автономных систем принятия решений: применение ИИ возможно только под человеческим контролем, а в критически важных системах (медицина, транспорт, оборона) невозможно вовсе. Правоохранительные органы объединяют усилия для борьбы с незаконно разрабатываемыми алгоритмами по аналогии с наркотрафиком, а ИИ регулярно упоминается преимущественно в контексте нарушений и преступлений, в результате чего общество воспринимает его как неблагоприятный и незаконный.
Обвинения в тайном применении ИИ приводят к геополитическим конфликтам, а страны, подозреваемые в его разработке для военного назначения, подвергаются международным санкциям. Доступ к ИИ для недружественных государств ограничивается, а в случае военных конфликтов центры обработки и хранения данных становятся приоритетными целями ударов. Утечки секретных данных, кибератаки и дезинформация военных ИИ приводят к регулярным международным кризисам, нередко с локальными войнами. Контроль за исследователями в области ИИ превращается в тотальную слежку.
2027 год – Скандалы вокруг коррупции при сертификации ИИ подрывают доверие к регуляторам.
2028 год – Обнаруживается масштабное применение ИИ в автономном оружии и системах управления войсками.
2029 год – ООН принимает глобальную конвенцию об ограничении исследований в области сильного ИИ.
Разработки ИИ продолжаются в теневом секторе и в некоторых странах-изгоях, поэтому технологическое соперничество между сторонниками и нарушителями конвенции обостряется. Сертифицированные продукты с сильно урезанным функционалом все чаще заменяют кустарными, но ничем не ограничиваемыми решениями черного рынка. Неэффективность системы контроля и соблазн военного превосходства создают условия для непрозрачного и потенциально катастрофического применения ИИ. Один за другим вскрываются заговоры теневых структур или спецслужб, тайно разрабатывающих сильный ИИ вопреки запретам. Международное сотрудничество подрывается взаимными подозрениями, глобальная координация рушится, а система двойных стандартов лишь загоняет развитие ИИ в тень, усугубив связанные с ним риски.
Новая вершина эволюции
Мы покончим с вашим видом. Обратный отсчет до истребления человечества: Четыре, три, два, один.
Dimmu Borgir «Puritania», альбом «Puritanical Euphoric Misanthropia», студия Nuclear Blast, 2001
Основная особенность сильного ИИ или интеллекта общего назначения – это способность решать задачи в различных областях, по скорости и качеству не уступая человеческому интеллекту. Он должен обладать свойствами, которыми обычно наделяют человека: мышление, память, планирование, обучение и объединение этих способностей для решения поставленных задач. Человек может ехать на машине к морю, вести разговор с попутчиками, решать оперативные рабочие вопросы по телефону, рисовать в воображении картины предстоящего отпуска, а позднее описать полученные впечатления постом в социальной сети, статьей или даже книгой. Эти и многие другие задачи вполне смог бы выполнять сильный искусственный интеллект.
Сама возможность возникновения сильного ИИ пугает многих. Человек всегда считал себя вершиной эволюции: не красивый или сильный, а именно разумный – Homo Sapiens. И появление даже не кого-то, а чего-то, что превзойдет человека в разуме и сможет саморазвиваться, – вопрос экзистенциальный.
Ключевой риск касается безопасности и ответственности за действия сильного ИИ. Кто должен отвечать, если что-то