Как учится машина. Революция в области нейронных сетей и глубокого обучения - Ян Лекун
Напомним, что ИИ – это инструмент, созданный людьми, который призван служить нам. Именно люди модифицируют и развивают его интеллект. Но с учетом нынешних ограничений «узкого» ИИ, неспособного проявлять инициативу, в возникновении непредвиденных ситуаций следует винить только людей. Неизвестно, случается ли что-то подобное преднамеренно, или по неосторожности, или по причине некомпетентности. Если и есть опасность от ИИ, то она связана с самим человеком и его злоупотреблением технологиями.
Для предотвращения техногенных катастроф, при моем участии было создано Партнерство по ИИ во благо людей и общества (The Partnership on AI или PAI)[133] объединяющее около сотни коллективных членов: крупные компании, интернет-гиганты, научные общества, правозащитные организации, СМИ (New York Times), академические группы и правительственные учреждения. Они обсуждают этические вопросы, предупреждают об опасностях и публикуют рекомендации. Искусственный интеллект – это новая технология, и последствия ее внедрения не всегда предсказуемы. Мы должны помнить об этом.
Партнерство проводит исследования по шести темам.
1. ИИ и жизненно важные системы, сбои в которых могут поставить под угрозу жизнь человека.
2. Справедливость, прозрачность и ответственность в сфере ИИ.
3. Влияние ИИ на экономику и рабочие места.
4. Сотрудничество человека и машины.
5. Социальное и общественное влияние ИИ.
6. ИИ и социальное благополучие.
Рассмотрим пример (к сожалению, очень распространенный), который касается неправильного использования статистических моделей: необъективные принятия решений. Если в наборе данных присутствуют ошибки или нарушения, машина, обученная этим данным, неизбежно отразит эти ошибки и нарушения в своих выводах. Проблема здесь не в ИИ как таковом, а в использовании данных и статистических моделей, какими бы они ни были. Глубокие сети – это лишь один из особо сложных примеров статистической модели, но систематическая ошибка может возникнут даже при использовании очень простых моделей, таких как линейная регрессия.
Еще один пример: распознавание лиц. Если использовать репрезентативную выборку населения Франции для обучения системы распознавания лиц, то эта система будет не очень надежной для лиц африканского или азиатского происхождения. И наоборот, если для обучения используется репрезентативная выборка населения Сенегала, она не будет надежной для людей европейского или азиатского происхождения. Становится ясно, что надежность системы зависит от разнообразия и сбалансированности обучающих примеров.
Желаемые результаты обучения на примерах могут также быть необъективными. Данные о задержанных преступниках, где учитывается уровень их рецидивизма, позволили бы предсказать риски, связанные с освобождением под залог. Но если эти данные на протяжении долгого времени искажались в ущерб этнической или социально-экономической категории, система продолжит и усилит дискриминацию. Здесь речь идет вовсе не о теории. Система COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), используемая в некоторых штатах США, подверглась публичному осуждению со стороны организации ProPublica[134] (американское некоммерческое объединение журналистов). В этой системе использовались только простые статистические методы (далекие от уровня сложности глубокого обучения), но и это не предотвратило злоупотребления.
Таким образом, проблема появления ошибок и нарушений не связана с алгоритмами обучения или моделями. Здесь скорее речь о данных и о том, как они обрабатываются и фильтруются, прежде чем они будут использоваться для обучения модели. Как заметил известный социолог из Корнельского университета и лауреат премии Макартура Джон Кляйнберг: «Проблема, которую выявила ProPublica, на самом деле сводится к тому, как мы подходим к прогнозированию и алгоритмам».
Искусственный интеллект может также способствовать нарушениям прав граждан. С 2014 г. сверточные сети являются основой систем распознавания лиц[135], но следует отметить тот факт, что правительства либеральных демократий запрещают широкомасштабное использование ИИ посредством законов о неприкосновенности частной жизни. С другой стороны, правительство Китая использует системы распознавания лиц, устанавливая камеры наблюдения во всех общественных местах, и часть населения видит в этом прогресс: больше нет необходимости предъявлять удостоверение личности в аэропорту или административном здании.
Безусловно, уличные камеры наблюдения позволяют снизить уровень преступности (и без того низкий в Китае). Но эти же камеры ошибочно идентифицируют вас, когда вы переходите улицу на зеленый свет, и отправят вам штраф, словно вы специально лезли под машины. Китайское правительство использует данную технологию, и это гораздо серьезнее, в целях этнической дискриминации и контроля над повстанческим населением, таким как тибетцы или уйгуры, тюркоязычные мусульмане из Синьцзянского автономного района на северо-западе страны. Компании-стартапы по распознаванию лиц процветают в Китае! Правительство также использует машинное обучение для социальной оценки каждого человека. Вы не оплачиваете счета? Вы неоднократно совершали правонарушения? Вы общаетесь с подозрительными личностями? Ваша социальная оценка падает, а органы государственной власти усложняют вам жизнь. Правительственные органы нашли способ контролировать поведение, которое считается «девиантным».
Следуя своим принципам, китайское правительство обязывает Интернет-компании предоставлять доступ к личным данным своих пользователей – вот почему Google, Amazon и Facebook не работают в Китае. Эта страна блокирует доступ к Википедии, международным газетам, таким как New York Times и многим другим западным СМИ с помощью так называемого «Великого китайского файрвола»[136] – электронной версии Великой Китайской стены. В результате, Китай является сейчас сильно изолированной социальной системой.
Далеко не только «Поднебесная империя» использует мощь современных технологий для нарушения прав человека. Один израильский стартап гордится разработкой системы, которая может определить по фотографии черты характера человека и даже его риск стать террористом… Это – уже весьма изощренная форма социальной дискриминации!
Опять же, лучшая защита от таких побочных эффектов – это сила наших демократических институтов и законы о неприкосновенности частной жизни.
Должен ли ИИ быть понятным?
Некоторые люди называют системы глубокого обучения «черным ящиком», видя в этом повод для недовольства. Их сетования не обоснованы. Инженер может подробно изучить функционирование нейронной сети. Все доступно. Конечно, когда в этой сети находятся миллионы единиц и миллиарды подключений, довольно трудно полностью понять, как сеть принимает решение. Но разве это не особенность любого разумного решения? Ведь мы не понимаем нейронных механизмов, которые позволяют водителю такси, мастеру, врачу или пилоту авиакомпании выполнять свою работу. Мы также не можем понять, как трюфельные собаки выкапывают эти «черные бриллианты». Мы просто им доверяем. Почему у нас должны быть более высокие требования к машине, которая быстрее реагирует, не устает, не отвлекается? Почему мы должны относиться к ней с подозрением, когда с легкостью можно доказать, что она безопасней человека?
Большинство из тех триллионов решений, которые сейчас ежедневно принимаются системами ИИ, касаются поиска, сортировки и фильтрации информации, а также нескольких не слишком серьезных приложений, содержащих эффекты, применяемые к фотографиям и видео. Вы действительно хотите потратить время и силы на их детальное изучение? Они приносят нам удовлетворение, разве этого недостаточно?
В наше время используется множество систем, механизмы работы