Kniga-Online.club
» » » » Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами - Руслан Геннадьевич Юсуфов

Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами - Руслан Геннадьевич Юсуфов

Читать бесплатно Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами - Руслан Геннадьевич Юсуфов. Жанр: Публицистика год 2004. Так же читаем полные версии (весь текст) онлайн без регистрации и SMS на сайте kniga-online.club или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
Перейти на страницу:
станут мощным фактором влияния на будущие поколения, предполагается ввести контроль за безопасным и ответственным развитием технологий. Ранее использование ChatGPT было запрещено в Италии и крупнейших корпорациях Китая.

В Китае приняты три наиболее конкретных и действенных нормативных акта в отношении алгоритмов ИИ:

• постановление 2021 года об алгоритмах рекомендаций;

• правила о синтетически сгенерированном контенте 2022 года;

• проект правил 2023 года о генеративном ИИ.

Доступ к ChatGPT ограничен в сетях и на устройствах государственных школ Нью-Йорка, а также в России, Иране, КНДР, Кубе и Сирии.

Риски, связанные с искусственным интеллектом, зачастую похожи на фобию – боязнь нового, еще непознанного. Полный отказ или серьезные ограничения ИИ малоперспективны и похожи на заведомо провальную попытку запретить технический прогресс, который всегда сопровождается появлением новых вызовов и решением связанных с ними проблем: сначала появился меч, потом щит; сначала болезнь, потом лекарство; сначала преступники, потом тюрьмы. Кроме того, страны и организации, останавливающие развитие искусственного интеллекта, прежде всего наносят удар по самим себе.

Запрет искусственного интеллекта в эпоху интернета трудно реализовать технически, поскольку технологии распространяются лавинообразно. Например, в странах с ограничениями пользователи обходят запрет с помощью средств анонимизации и виртуальных телефонных номеров. Согласно сетевым метрикам, несмотря на ограничение доступа к ChatGPT, API OpenAI остается частично доступным в Италии. При этом геоблокировка затрагивает веб-версию ChatGPT, но не влияет на доступ к чат-боту поисковой системы Microsoft Bing, также основанному на GPT-4 от OpenAI. Наконец, запреты неизбежно приведут к появлению и расширению черного рынка алгоритмов, моделей и решений.

Люди, попробовавшие искусственный интеллект и увлекшиеся его возможностями, будут искать обходные пути для получения доступа к нему. Он похож на новый наркотик, опасность которого выше, когда его нет, чем когда он есть. Так, американская певица и композитор Лори Андерсон поделилась в интервью, что «полностью, на 100 % подсела» на чат-бота, который эмулирует словарь и стиль ее умершего в 2013 году супруга Лу Рида, одного из наиболее влиятельных музыкантов прото-панка и глэм-рока.

Искусственный интеллект с каждый годом будет все реалистичнее имитировать общение с умершими близкими – для создания цифровых клонов пригодятся переписки и публикации в социальных сетях, записи голоса, фотографии и видеоматериалы. Они поддержат в трудную минуту, позволят внукам пообщаться с умершим дедушкой или собрать несколько поколений ушедших родственников на семейном ужине – с совершенно непредсказуемыми долгосрочными последствиями для психики живых участников.

Возможный сценарий «Интеллект по рецепту»

Запрет искусственного интеллекта – Национализация

2024 год – Волна инцидентов с ИИ вызывает общественное недоверие к технологии.

2025 год – Принятие жестких законов, ограничивающих разработку и использование ИИ.

Под давлением общественности и по результатам работы создаваемых для сертификации систем ИИ национальных регуляторов корпорации сворачивают наиболее амбициозные проекты в этой области, но продолжают закрытые разработки. В большинстве стран мира вводятся законодательные и корпоративные запреты на использование ИИ и мощных нейросетей. Применение уже разработанных продуктов ставят на паузу или ограничивают решением только регламентированных задач. Существующие продукты на основе ИИ декларируют в специальных реестрах, а спецкомиссии проверяют любые ИИ-решения, подобно лекарственным препаратам: последствия их воздействия на человека, соответствие юридическим, политическим и религиозным нормам. После сертификации компании получают лицензию, которая может быть отозвана в любой момент из-за нарушения условий использования продукта или обнаружения каких-либо ранее неизвестных результатов. Пользователи ИИ также несут правовую ответственность за распространение и применение по назначению как самого продукта, так и результатов его работы.

2026 год – Формируется теневой рынок несертифицированных решений на базе ИИ.

2027 год – Прогресс легальных ИИ-исследований замедляется из-за бюрократизации.

Формируется глобальный консенсус об ограничении автономных систем принятия решений: применение ИИ возможно только под человеческим контролем, а в критически важных системах (медицина, транспорт, оборона) невозможно вовсе. Правоохранительные органы объединяют усилия для борьбы с незаконно разрабатываемыми алгоритмами по аналогии с наркотрафиком, а ИИ регулярно упоминается преимущественно в контексте нарушений и преступлений, в результате чего общество воспринимает его как неблагоприятный и незаконный.

Обвинения в тайном применении ИИ приводят к геополитическим конфликтам, а страны, подозреваемые в его разработке для военного назначения, подвергаются международным санкциям. Доступ к ИИ для недружественных государств ограничивается, а в случае военных конфликтов центры обработки и хранения данных становятся приоритетными целями ударов. Утечки секретных данных, кибератаки и дезинформация военных ИИ приводят к регулярным международным кризисам, нередко с локальными войнами. Контроль за исследователями в области ИИ превращается в тотальную слежку.

2027 год – Скандалы вокруг коррупции при сертификации ИИ подрывают доверие к регуляторам.

2028 год – Обнаруживается масштабное применение ИИ в автономном оружии и системах управления войсками.

2029 год – ООН принимает глобальную конвенцию об ограничении исследований в области сильного ИИ.

Разработки ИИ продолжаются в теневом секторе и в некоторых странах-изгоях, поэтому технологическое соперничество между сторонниками и нарушителями конвенции обостряется. Сертифицированные продукты с сильно урезанным функционалом все чаще заменяют кустарными, но ничем не ограничиваемыми решениями черного рынка. Неэффективность системы контроля и соблазн военного превосходства создают условия для непрозрачного и потенциально катастрофического применения ИИ. Один за другим вскрываются заговоры теневых структур или спецслужб, тайно разрабатывающих сильный ИИ вопреки запретам. Международное сотрудничество подрывается взаимными подозрениями, глобальная координация рушится, а система двойных стандартов лишь загоняет развитие ИИ в тень, усугубив связанные с ним риски.

Новая вершина эволюции

Мы покончим с вашим видом. Обратный отсчет до истребления человечества: Четыре, три, два, один.

Dimmu Borgir «Puritania», альбом «Puritanical Euphoric Misanthropia», студия Nuclear Blast, 2001

Основная особенность сильного ИИ или интеллекта общего назначения – это способность решать задачи в различных областях, по скорости и качеству не уступая человеческому интеллекту. Он должен обладать свойствами, которыми обычно наделяют человека: мышление, память, планирование, обучение и объединение этих способностей для решения поставленных задач. Человек может ехать на машине к морю, вести разговор с попутчиками, решать оперативные рабочие вопросы по телефону, рисовать в воображении картины предстоящего отпуска, а позднее описать полученные впечатления постом в социальной сети, статьей или даже книгой. Эти и многие другие задачи вполне смог бы выполнять сильный искусственный интеллект.

Сама возможность возникновения сильного ИИ пугает многих. Человек всегда считал себя вершиной эволюции: не красивый или сильный, а именно разумный – Homo Sapiens. И появление даже не кого-то, а чего-то, что превзойдет человека в разуме и сможет саморазвиваться, – вопрос экзистенциальный.

Ключевой риск касается безопасности и ответственности за действия сильного ИИ. Кто должен отвечать, если что-то

Перейти на страницу:

Руслан Геннадьевич Юсуфов читать все книги автора по порядку

Руслан Геннадьевич Юсуфов - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки kniga-online.club.


Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами отзывы

Отзывы читателей о книге Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами, автор: Руслан Геннадьевич Юсуфов. Читайте комментарии и мнения людей о произведении.


Уважаемые читатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор kniga-online.


Прокомментировать
Подтвердите что вы не робот:*
Подтвердите что вы не робот:*