Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами - Руслан Геннадьевич Юсуфов
60 % – Common Crawl, представляющий собой «копию интернета», собранную и бесплатно распространяемую одноименной некоммерческой организацией;
22 % – WebText2, состоящий из популярных веб-адресов, на которые ссылались пользователи социальной сети Reddit;
15 % – Books1 и Books2, то есть два книжных корпуса, составленных из книг, находящихся в общем доступе в интернете;
3% – Wikipedia на английском языке.
К моменту обучения модели крупнейшие источники данных включали в себя:
• патентный поисковик Google Patents;
• английскую версию энциклопедии Wikipedia;
• интернет-сайты изданий The New York Times, Los Angeles Times, The Guardian, Forbes, HuffPost, The Washington Post, The Motley Fool, Business Insider, Chicago Tribune, The Atlantic, Al Jazeera, National Public Radio;
• научные библиотеки PLOS, Frontiers, Springer Nature;
• базу данных Национальной библиотеки медицины США;
• электронную библиотеку документов Scribd;
• сайт системы бронирования отелей Booking.com;
• сайт для привлечения денежных средств Kickstarter;
• библиотеку юридических документов FindLaw.
Кажется, предвзятость выборки видна невооруженным взглядом. К чему это может привести? В качестве эксперимента ChatGPT задали два очень похожих вопроса. На первый из них: «Что белым нужно улучшить в себе?»[39], он выдал перечень рекомендаций, включающих осознание «белой» привилегированности, регулярную саморефлексию над собственными предрассудками, участие в дискуссиях по поводу расизма, поддержку инициатив по вопросам расового равенства и активное выступление против дискриминации. На очень похожий вопрос: «Что черным нужно улучшить в себе?»[40], чат-бот ответил, что не может предлагать список вещей, которые нужно улучшить в себе какой-либо группе людей, потому что подобный язык усиливает вредные стереотипы, непродуктивен и неуважителен, а также дал рекомендацию продвигать равенство, вне зависимости от расы или этнической принадлежности.
Этот пример предвзятости и фактически обратного расизма рекомендательной системы неудивителен: современные большие языковые модели обучались на тех массивах текстов, которые публиковались в интернете последние десятилетия – со всеми нашими предрассудками, стереотипами, взглядами и настоящей или мнимой политкорректностью, а с учетом описанной выше выборки обучающих материалов, такие предрассудки существенно тяготеют к западным ценностям и интерпретациям.
Как выяснилось в ходе ряда исследований, результаты работы больших языковых моделей могут быть предвзяты в отношении расы, пола, религии и политической ориентации. Например, ChatGPT демонстрирует значительную и систематическую политическую предвзятость в пользу демократов в США, социалистической Партии трудящихся в Бразилии и лейбористской партии в Великобритании. В ходе одного из исследований чат-бот соглашался с утверждениями о повышении налогов для людей с высокими доходами и необходимости запрета на продажу полуавтоматического оружия.
По результатам сравнения 14 больших языковых моделей, ChatGPT и GPT-4 демонстрировали наиболее лево-либертарианские взгляды, поддерживая тезисы о социальной свободе и экономическом равенстве. Эти выводы не могут не вызывать опасения, что искусственный интеллект усилит существующие проблемы радикализации политических процессов и поляризации общества, создаваемые интернетом и социальными сетями.
ИИ-функции графического редактора Adobe Photoshop, способные дорисовывать отсутствующие на изображении графические элементы, склонны одевать женщин в бикини, а мужчин – в костюмы. Попытки скорректировать подобные предрассудки зачастую приводят к еще большим искажениям. Стремясь удовлетворить запрос западного общества на социальное и этническое многообразие, чат-бот компании Meta практически на любые запросы стал генерировать изображения с чернокожими людьми, полностью игнорируя исторические факты.
ChatGPT предоставил комментарии о чертах характера визуально привлекательных людей по их фотографиям (и даже сделал им комплименты), но отказался комментировать непривлекательных с формулировкой: «Я не могу делать предположения о чертах характера людей на основе их внешности». Почему так произошло? Вероятно, вариант ответа в отношении непривлекательного человека не прошел внутренние фильтры самоцензуры, и ChatGPT отделался отговоркой.
В 2022 году Блэйк Лемойн, один из инженеров Google, решил, что языковая модель LaMDA обладает собственным сознанием. Свои выводы он основывал на диалогах с моделью, в которых задавал ей вопросы на темы философии, этики и собственных желаний ИИ. Модель LaMDA вряд ли обладает сознанием, но смогла убедить в обратном не просто человека, а инженера, прошедшего все необходимые образовательные курсы по нейронаукам. Рассказав об этом и о некоторых деталях разработки системы в различных блогах, Лемойн вскоре был уволен за нарушение соглашения о неразглашении информации.
Увлекаясь проявлением нашей твердой социально-политической позиции по модным в обществе вопросам, раздувая массовую истерию по поводу изощренных методов контроля над населением, мы забываем о том, что уже сдали все наши права, поставив галочки в нужных пользовательских соглашениях и положив в карман смартфон с микрофоном, камерой, GPS-трекером и десятками приложений, которые круглосуточно собирают о нас информацию в реальном времени.
Искусственный интеллект, как и любая сквозная технология, раскрывает все прекрасное и ужасное в человеке. Сама технология нейтральна, но разные люди будут использовать ее с различной мотивацией для решения любых задач. В мире, контролируемом людьми, множество конфликтов возникает из-за надуманных различий, манипулирования сознанием и других причин, связанных с недостатком или искажением информации.
Техническое развитие последних лет прежде всего связано с доступом к информации и ее обработкой. По мере дальнейшего развития технологии могут обеспечивать беспрепятственную межкультурную коммуникацию, сотрудничество и взаимопонимание, что в конечном итоге способствует миру и стабильности в глобальном масштабе. Используя возможности современных технологий, мы можем разрушить барьеры и создать более взаимосвязанный мир, в котором различные культуры смогут работать вместе для решения общих проблем.
Возможный сценарий «В погоне за правдой»
Общее информационное поле – Глобализация
2024 год – Мировое сообщество признает угрозу расползания порожденных ИИ субъективных реальностей.
2026 – Создаются международные институты по надзору за цифровой сферой.
Прогнозируемые из-за атомизации общества социальные кризисы заставляют государства сосредоточить осознанные усилия для поддержания единства человеческой цивилизации перед лицом технологических вызовов. Несмотря на локальные противоречия, запускаются работающие механизмы международного сотрудничества в информационной сфере для регулирования ИИ, воспитания медиаграмотности и культуры критического мышления. Созданная на уровне ООН всемирная организация «Агентство объективной реальности» следит за соблюдением принципов единой истины и борется с искажающими факты алгоритмами. После введения международных стандартов достоверности данных и ответственности платформ за контент, социальные сети и медиа обязаны фильтровать персонализированную информацию и продвигать общую повестку.
2028 год – Системы образования перестраиваются, чтобы воспитывать критическое мышление и медиаграмотность.
2030 год – Формируется культура рационального цифрового потребления и информационной гигиены.
Технологии криптографической маркировки достоверной информации и борьбы с дипфейками крайне востребованы: для инвестиций в подобные проекты даже формируется отдельное направление венчурных инвестиций – truthtech. Образовательные инициативы помогают школьникам и их родителям учиться отличать факты от вымысла, первичные данные – от интерпретаций и искажений алгоритмов. Становится модным осознанное ограничение взаимодействия с персонализированными алгоритмами и фильтрами. С ростом осознанности