Прикладные проблемы внедрения этики искусственного интеллекта в России. Отраслевой анализ и судебная система - Евгений Михайлович Стырин
Следствие подобной ситуации то, что сбор и обработка данных даже в случаях, когда их организация будет проводиться с соблюдением закона, может порождать этически напряженные ситуации, в которых о людях «всплывает» информация, которой не предполагалось делиться. В контексте судебных споров и коллизий подобная ситуация может служить причиной как недоразумений и судебных ошибок, так и определенных злоупотреблений. В любом случае непредсказуемость и непреднамеренность разглашения конфиденциальных данных может вредить гражданам не только в повседневной или профессиональной жизнедеятельности, но особенно в контексте судебно-правовой деятельности.
2. Если ИИ-технологии в судебной системе не закладываются как полноценные эмуляторы судопроизводственной деятельности, то они могут внедряться на правах технических помощников профессионалов (судей, прокуроров, адвокатов или следователей). Квалифицированные сотрудники, работающие в системе правосудия, могут обращаться к решениям ИИ-судей как к своего рода рекомендательной инстанции. С решениями компьютеризированных помощников можно сравнивать решение, принятое судьей-человеком. Отбор аналогичных случаев или подбор соответствующей правовой документации, осуществляемой в таких программах, как «Гарант-Плюс», можно дополнить предварительной экспертизой дела, а также вынесением рабочего решения. Профессиональный сотрудник, работающий с данной системой, может принять во внимание или отклонить предложенное программой решение. Однако в любом случае, учитывая рекомендательный характер предварительной информации, она должна быть полезной в оптимизации и ускорении приятия решения человеком-профессионалом.
Кейс. Такие программы, как «Гарант-Плюс» за последние 10 лет претерпели серьезное расширение и серьезную трансформацию с точки зрения запроса конечного пользователя. Если в 2000 году 80 % запросов при использовании программы касались нахождения того или иного законодательного акта, постановления или нормативного акта, то в 2016 году около 60 % запросов касаются поисков прецедентных решений или помощи в решении того или иного правового вопроса. Данная трансформация позволяет говорить о возрастании запроса юристов и прочих специалистов правоведов на эмуляцию решений конкретных правовых вопросов и ситуаций [Шевелёва, 2018].
При применении данной технологии контроль за окончательным решением закрепляется за человеком. Специалисты, работающие в правоохранительной области и судопроизводстве, имеют возможность принимать или отклонять решения, принятые системой ИИ, и контролировать доступ к данным, используемым ИИ. Для сотрудника-пользователя организован прозрачный доступ к тому, каким образом было выработано решение ИИ. В связи с этим возникает вопрос, какова должна быть степень человеческого вмешательства в определение границ решений ИИ? Наиболее демократичным для человека-специалиста является режим полного контроля вплоть до наложения вето на те решения, которые принимает ИИ. Однако даже в таком случае открытым остается вопрос о степени влияния решений, полученных ИИ, на решения, которые может принять человек. Этически неоднозначным представляется возможность скрытого манипулирования человеческим вмешательством при отсылке к авторитетности компьютеризированного решения. Поскольку решения, принимаемые ИИ, имеют доступ к большим массивам данных, наиболее репрезентативной выборке прецедентов, статистической обработке и многофакторному анализу, то его решения могут представляться более квалифицированными. Поскольку вердикты, выносимые ИИ, подпадают под требования максимальной прозрачности и алгоритмической открытости шагов, то подобные решения могут выглядеть проработанными намного лучше. Это может приводить к тому, что судья-человек будет осознанно или неосознанно склоняться к редупликации решения, предложенного ИИ. Этическая дилемма будет связана не только с психологической инертностью и тенденцией следовать за авторитетом, но и нежеланием подвергать свою репутацию риску дополнительной проверки. Пересмотр решения, предложенного ИИ-судьей, будет означать своего рода тест на квалификационное соответствие человека-судьи своему званию. Во избежание дополнительных проверок и публичного подтверждения собственного профессионализма судьи могут некритически следовать за судейскими решениями ИИ. Еще одной этической проблемой в связи с этим будет риск формирования предвзятых эмоций с помощью ИИ. Социальные сети уже экспериментируют со способами манипулирования эмоциями пользователей [Goel, Joyner, 2014]. Возникает вопрос, может ли судебное решение ИИ эмоционально повлиять на судью или, к примеру, на суд присяжных? От ИИ в судебном процессе потребуется не просто принятие решения, но и его аргументация. При самообучении ИИ по типу нейронных сетей программы будут иметь доступ ко всем судебным процессам, а именно линиям защиты или обвинения по сходным делам. Процесс аргументации в суде содержит известный корпус логических уловок и умышленных ошибок в рассуждении, таких как софизмы, ложные парадоксы, подмена тезиса, отсылка к авторитету, поспешное обобщение, гиперболизация, объяснение непонятного посредством другого непонятного, различные ошибки в умозаключениях по типу построения неверных силлогизмов. Весь корпус данных ошибок может использоваться ИИ для обоснования выбранной позиции, поскольку целевой регулятив программы заключается в максимальной оптимизации своих решений. Хотя предполагается, что ИИ функционирует в условиях ценностно нейтральной организации, большинство логических уловок могут быть использованы в выбранной им линии аргументации. При отсутствии высококвалифицированной подготовки судей и прочих специалистов, задействованных в судопроизводстве, люди, которые причастны к контролю за решениями ИИ, будут подпадать под различные тактики, использованные ИИ. В связи с этим следует отметить специфические проблемы российской судебно-правовой системы. Так, с 2010 года из подавляющего большинства образовательных программ, готовящих будущих юристов, был исключен курс по логике, а также в ряде вузов курсы по риторике или ораторскому искусству. Это стало причиной того, что судебные специалисты не всегда профессионально владеют техниками построения аргументации. В данной ситуации осуществление экспертного контроля за той частью программы ИИ, в которой решение обосновывается и выбирается, может оказаться непосильным для человека. Сложной этической дилеммой в таком случае будет вопрос о степени, в которой человек сохраняет экспертный контроль и нейтралитет к решениям, предложенным ИИ. Реалистичным может оказаться такой сценарий, в котором человек эмоционально и интеллектуально подпадает под логику, представленную ИИ-судьей.
3. Аспект объективности, который обычно связывают с преимуществом внедрения ИИ, позволяет предложить технологию, в которой ИИ-судьи и сопутствующие их решениям механизмы сортировки, обработки и анализа данных максимально ориентированы на формальный индекс юридических понятий и принципов. Программы в состоянии отфильтровать культурные и лингвистические особенности рассмотрения дел, наиболее распространенные в данной культуре, стране или регионе. Применение подобных технологий должно упростить рассмотрение дел в международных судах, а также не ограничивать ИИ-судейство рамками отдельных стран. Цель данных программ – максимальная формализация судопроизводства, упрощающая его использование в различных ситуациях.
Кейс. Группа ученых из Университетского колледжа в Лондоне, которой руководил Николас Алетрас, пришла к выводу, что судьи ЕСПЧ чаще обращают внимание на описание фактов, а