реклама
Бургер менюБургер меню

Елена Ларина – Искусственный интеллект. Этика и право (страница 12)

18

Когда инструменты ИИ используются для решения споров или в качестве инструмента помощи в принятии судебных решений, а также в правоохранительной деятельности, важно обеспечить, чтобы ИИ не подрывал гарантии права на доступ к судье, а также право на равенство сторон и уважения к состязательному судопроизводству. При использовании ИИ правоохранительными органами, при предоставлении материалов в суд у стороны защиты в рамках проведения справедливого судебного разбирательства должно быть право на получение обоснования, принятого с использованием ИИ решения вплоть до раскрытия используемых больших данных и применяемых алгоритмах их разработки.

Также необходимо обеспечить безусловное сохранение принципа верховенства закона и независимости судьи и процессе принятия решений в обстановке, когда ИИ становится инструментом, вовлеченным в судебный процесс на стадии сбора доказательств, либо в фазе самого судебного процесса. Во всех случаях на этапах разработки алгоритмов ИИ необходимо соблюдать этические принципы, гарантирующие равенство граждан перед законом. В случае несоблюдения этических принципов необходимо отказываться от пусть эффективных и совершенных, но не соответствующих этим принципам алгоритмов машинного обучения, нейронных сетей и других математических методов ИИ.

§ 2. Принцип второй

Учитывая внутренне присущую методам машинного обучения и нейронных сетей способность закреплять классификации или распознавание новых данных на основе ранее выявленных закономерностей, касающихся отдельных лиц или групп лиц, необходимо, чтобы государственные и частные заинтересованные стороны уже на стадии разработки программных средств ИИ для судебных и правоохранительных сфер заблокировали возможность дискриминации определенных групп, слоев и отдельных граждан в результате применения алгоритмов.

Особое внимание следует уделить как на этапе разработки, так и на этапе развертывания, проверке применяемых алгоритмов на избыточный учет при принятии решений таких факторов, как раса, этническое происхождение, социально-экономическое состояние, политические взгляды, социальные связи, членство в профсоюзах и т. п. Следует прямо запретить в алгоритмах ИИ, используемых в судебной и правоохранительной системах, использование генетических данных, а также биометрических данных, связанных со здоровьем, сексуальной жизнью и сексуальной ориентацией. В случае если такая дискриминация выявляется при проверке применения алгоритмов, необходимо вплоть до усовершенствования алгоритмов отказаться от использования ИИ[5].

Следует поощрять использование машинного обучения и междисциплинарного научного анализа для выявления фактического положения дел. Если фактическое положение дел может быть охарактеризовано как дискриминационная ситуация, то ИИ целесообразно максимально использовать как аналитический инструмент, а не инструмент поддержки принятия решений.

§ 3. Принцип третий

Разработчики модели машинного обучения должны иметь возможность широко использовать опыт работников судебной и правоохранительной систем, включая судей, прокуроров, юристов, следователей, оперативных работников и т. п., а также специалистов в области социальных наук, включая экономистов, социологов, психологов и т. п.

Для разработки ИИ, используемых в судебной и правоохранительной сферах, необходимо формировать смешанные проектные команды, реализующие междисциплинарный подход. При распределении подрядов на производство ИИ для судебной и правоохранительной сфер обязательным требованием должна быть сертификация разработчиков на прохождение курсов по этике ИИ.

Эффективность ИИ в значительной степени предопределяется качеством данных, используемых при машинном обучении. ИИ, применяемый в судебной и правоохранительной системах, должен обучаться на данных исключительно из сертифицированных источников.

§ 4. Принцип четвертый

Необходимо соблюдать баланс между интеллектуальной собственностью разработчиков на методы машинного обучения, используемые нейронные сети и т. п. и необходимостью обеспечения прозрачности, беспристрастности и отсутствия дискриминации в программах и алгоритмах ИИ.

Необходимо создать систему внешнего аудита программных средств ИИ. Целесообразно установить порядок, согласно которому обязательным условием использования ИИ в судебных и правоохранительных сферах является прозрачность их алгоритмической базы и объяснимость принятия решений на всех уровнях с целью недопущения использования дискриминационных факторов при распознавании объектов.

Наиболее предпочтительным является вариант полной технической прозрачности, когда в ИИ для судебной и правоохранительной сфер используют открытый исходный код, доступную документацию и человечески интерпретируемые алгоритмы нейронных сетей. Система также должны быть объяснена простым и понятным языком, прежде всего, для описания того, как получены результаты, чтобы обвиняемые, адвокаты и другие участники состязательного судебного процесса могли понять, и в случае необходимости оспорить, принятые ИИ рекомендации для решения дела.

Целесообразно ввести государственную сертификацию производителей ИИ, используемых в судебной и правоохранительной сферах.

§ 5. Принцип пятый

Пользовательский контроль должен быть увеличен, а не ограничен, на основе инструментов и сервисов ИИ. Профессионалы систем правосудия и правоохранительной деятельности должны в любой момент иметь возможность пересматривать судебные решения, принятые с применением ИИ, а также контролировать данные, используемые ИИ на всех этапах расследования и судебного процесса. Пользователь должен быть проинформирован ясным и понятным языком о том, каким образом принято решения ИИ, насколько они обязательны и имеют ли они право оспорить эти решение.

Каждый участник судебного процесса должен иметь полное право на получение в случае необходимости любых данных, используемых ИИ, для вынесения того или иного решения. Соответственно, участник не только должен иметь право на получение данных, но и на использование услуги обработки этих данных другим сертифицированным ИИ, чтобы выяснить, насколько обоснованными являются используемые в судебном процессе решения рекомендации со стороны ИИ, обслуживающего, например, сторону обвинения.

Глава III

Алгоритмические инструменты оценки рисков в системе уголовного правосудия США[6]

§ 1. Общие положения

В начале 2019 года был опубликован Отчет об алгоритмических инструментах оценки рисков в системе уголовного правосудия США. Он написан сотрудниками Партнерства по ИИ (PAI). Работа по этой теме была первоначально продиктована законопроектом 10 Сената штата Калифорния (SB 10), который предписывал приобретение и использование статистических инструментов и инструментов оценки риска машинного обучения для решений по предварительному заключению. Впоследствии эта работа расширилась для оценки использования такого программного обеспечения по всей территории Соединенных Штатов.

Партнерство по искусственному интеллекту (PAI) – это некоммерческая организация, созданная для изучения и формулирования передового опыта в области технологий ИИ, для улучшения понимания общественностью проблем ИИ и в качестве открытой платформы для обсуждения и взаимодействия в отношении ИИ и его влияния на людей и общество.

Деятельность PAI определяется в сотрудничестве с его коалицией, насчитывающей более 80 членов. В том числе групп гражданского общества, корпоративных разработчиков и пользователей ИИ, а также многочисленных академических исследовательских лабораторий ИИ. PAI стремится создать пространство для открытого разговора, развития лучших практик и координации технических исследований, чтобы гарантировать использование ИИ на благо человечества и общества. Важно отметить, что PAI является независимой организацией.

В указанном отчете задокументированы серьезные недостатки инструментов оценки риска в системе уголовного правосудия США, особенно в контексте досудебных задержаний, хотя многие из наших наблюдений также применимы к их использованию в других целях, таких как условное осуждение и вынесение приговора. Несколько юрисдикций уже приняли законодательство, обязывающее использовать эти инструменты, несмотря на многочисленные глубокие проблемы и ограничения. Собирая взгляды сообщества исследователей в области ИИ и машинного обучения, PAI наметил десять в основном невыполненных требований, которые юрисдикциям следует взвесить и рассмотреть перед дальнейшим использованием инструментов оценки рисков в системе уголовного правосудия.

Использование инструментов оценки риска для принятия справедливых решений о свободе человека потребует решения глубоких этических, технических и статистических задач, включая обеспечение того, чтобы инструменты были спроектированы и созданы для смягчения предвзятости как на уровне модели, так и на уровне данных, и чтобы были установлены надлежащие протоколы, содействовать прозрачности и подотчетности. Инструменты, доступные в настоящее время и находящиеся на рассмотрении для широкого использования, страдают от нескольких из этих сбоев, как описано в данном документе.