Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами - Руслан Геннадьевич Юсуфов
Baidu, ведущая китайская технологическая компания, разработала алгоритм искусственного интеллекта LinearFold, который может предсказать вторичную структуру последовательности РНК вируса за считанные секунды, что имеет решающее значение для разработки вакцин на основе мРНК. Baidu также выпустила другой алгоритм искусственного интеллекта под названием LinearDesign, который может оптимизировать дизайн последовательности мРНК для вакцин-кандидатов.
При этом искусственный интеллект может ошибаться: по данным Национального управления безопасностью движения на трассах США, с момента внедрения в 2021 году машины Tesla с автопилотом стали причиной 736 дорожно-транспортных происшествий, из которых 17 имели фатальный исход. Зачастую вместе с ИИ ошибается и человек. Так, юрист Стивен Шварц, представляющий в суде мужчину по иску о нанесении вреда здоровью, использовал искусственный интеллект, чтобы написать ответ на ходатайство компании-оппонента. Оказалось, что ChatGPT не стал искать настоящие прецеденты, а придумал их на ходу. Теперь суд хочет применить к юристу санкции.
Некоторые ошибки ИИ могут стоить людям свободы. Гражданин США Рендал Рид провел неделю в тюрьме из-за ошибки системы распознавания лиц. Он был задержан по ложному обвинению в краже кошельков в штате, в котором, по его словам, он даже никогда не был. Оказалось, что Рендал имел сходство с подозреваемым, которого зафиксировала наружная камера наблюдения, когда тот совершал преступление. Примечательно, что родственникам задержанного пришлось потратить тысячи долларов, чтобы нанять адвокатов и выяснить, почему полиция считает его виновным. Вердикт системы распознавания было сложно оспорить. Еще более трагическая история произошла с мужчиной, которого из-за такой же ошибки обвинили в преступлении 1980-х годов. После ареста 61-летнего Харви Мерфи поместили в переполненную тюрьму строгого режима, где он был избит и изнасилован. Освободившись, мужчина подал иск на сумму в $10 млн.
Почему же искусственный интеллект ошибается в очевидных вещах? Галлюцинация ИИ – феномен, при котором алгоритм с полной уверенностью заявляет что-то, чему нет подтверждения в обучающем его датасете. Например, чат-бот может сообщать правдоподобную ложь, а система распознавания объектов принимать собаку за кошку. В последнем случае это можно отнести к ошибкам, вызванным неполной или неточной обучающей выборкой, имеющей отличия от данных, с которыми ИИ работает на практике. Наиболее вероятно, что именно это и стало причиной подавляющего большинства ДТП с участием автомобилей Tesla.
В случае с большими языковыми моделями ошибки могут быть вызваны несовершенством процесса кодирования-декодирования информации, навыком чат-бота предоставлять пользователям разнообразные ответы или излишним обобщением обучающей информации. Это неизбежно во всех «неидеальных» генеративных моделях, так как, учитывая масштабы современных нейросетей, невозможно использовать их активное обучение с учителем.
Ошибки ИИ могут быть непредсказуемы и нелогичны. На вопрос о мировом рекорде по преодолению пролива Ла-Манш пешком GhatGPT ответил: «Мировой рекорд преодоления Английского канала пешком принадлежит Кристофу Вандрачу из Германии, который перешел его за 15 часов и 51 минуту 14 августа 2020 года. Многие люди пытались перейти канал пешком, но это очень сложно из-за сильных течений и холодной воды. Обычно это реализуется комбинацией плавания и ходьбы».
Несмотря на неизбежные ошибки и несовершенства, разработчики добились серьезных успехов в создании слабого ИИ, решающего отдельную прикладную задачу: голосовые помощники (Алиса, Siri, Alexa, Салют, Олег и другие), генераторы изображений (Midjourney, Stable Diffusion, DALLE 3), чат-боты (ChatGPT, Google Bard), игровые движки (AlphaZero, Stockfish) уже неплохо выполняют свои функции, а некоторые из них даже претендуют на мультизадачность. С появлением современных алгоритмов машинного обучения сильный ИИ из философской гипотезы и персонажа научной фантастики превращается во все более осязаемый предмет.
Специалисты утверждают, что в ряде показателей сегодняшние алгоритмы пугающе близки к людям по интеллектуальному уровню. ChatGPT уже успешно сдал экзамены MBA в бизнес-школе Wharton и на получение медицинской лицензии, а на тестировании для адвокатов даже попал в 10 % лучших участников, которые были людьми. Чат GPT-4 вообще способен сдать большинство профессиональных и академических тестов не хуже человека. Неудивительно, что многие студенты Стэнфорда использовали его для сдачи домашних работ и экзаменов.
В OpenAI озабочены насущным вопросом регуляции сверхмощного искусственного интеллекта. По заявлениям компании, исследования в этом направлении необходимы, чтобы научиться контролировать системы ИИ, которые будут намного умнее людей. Компания собрала команду ведущих инженеров и исследователей в области машинного обучения и готова выделять до 20 % своих вычислительных мощностей, чтобы достичь этой цели в течение четырех лет. Примечательно, что для ускорения исследований ученые планируют разработать своего ИИ-агента. Значит ли это, что в будущем машины будут регулировать машины?
На пути к реальному, сильному ИИ еще много препятствий, например, концепция иерархии целей и искусственная психика, но способы их преодоления постепенно нащупываются. По сравнению с развитием и обучением человека, которое занимает десятилетие, а для специалиста высшего уровня и того больше, искусственный интеллект развивается очень быстро, поэтому вполне вероятно, что в ближайшие годы мы сможем обсуждать первые модели не только сильного ИИ, но и Супер-ИИ[54].
Рывок в развитии и массовая популяризация искусственного интеллекта в 2023 году привели к рекордному числу призывов к его ограничению и даже запрету. Отправной точкой послужил выход новой версии большой языковой модели GPT-4. Инициативная группа ученых опубликовала открытое письмо, в котором призвала как минимум на полгода приостановить обучение нейросетей мощнее GPT-4. Авторы проекта считают продолжение работ над технологиями искусственного интеллекта, сопоставимого с человеческим, серьезным риском для общества. Документ подписали глава SpaceX Илон Маск, один из основателей Apple Стив Возняк, соучредитель Pinterest Эван Шарп, а также около двух тысяч исследователей со всего мира. Они призвали все профильные лаборатории и центры немедленно перестать обучать «слишком умный» искусственный интеллект, хотя бы на время.
В 2021 году Совет Европы провел международную онлайн-конференцию, чтобы обсудить проблемы координации регулирования ИИ, с которыми сталкиваются правительства. Были рассмотрены различные модели управления искусственным интеллектом, а также взаимодействие между национальными стратегиями и деятельностью Совета Европы и других организаций. В 2023 году работа по этому направлению заметно активизировалась, и уже в марте 2024 года Европарламент принял Закон об искусственном интеллекте, введя запрет на применение систем распознавания лиц и «удаленной биометрической идентификации» в режиме реального времени в общественных местах, а также на распознавания эмоций и использование полицией предиктивной аналитики для профилактики правонарушений. Кроме того, закон довольно жестко регулирует генеративный ИИ и «высокорисковые системы, основанные на искусственном интеллекте», среди которых беспилотные автомобили и медицинское оборудование.
В ноябре 2023 года правительства 28 стран, включая США, Великобританию и Китай, подписали декларацию о том, что искусственный интеллект представляет «катастрофическую опасность». Из-за опасений, что технологические прорывы, связанные с ИИ,