реклама
Бургер менюБургер меню

Елена Ларина – Искусственный интеллект. Этика и право (страница 23)

18

Кроме того, в случае ИИ возникает проблема, которой нет в коллизиях, связанных с авиатранспортом, автомобилями, судами и т. п. Невероятно малая доля происшествий с такого рода сложными системами связана с человеческим фактором не на стороне эксплуатанта, а на стороне пользователя. В прошлом году произошло лишь два случая, когда люди погибли в аэропортах стран ЕС, оказавшись на взлетно-посадочных полосах во время взлета и приземления самолетов. Тщательный анализ выявил, что в обоих случаях люди сознательно обманули охранные системы и персонал аэропорта. Пока подобного рода инциденты крайне редки, но при массовом внедрении ИИ казусы и инциденты по вине пользователей могут стать гораздо более частыми. При этом сами пользователи будут стремиться получить материальную компенсацию за полученный ущерб. Соответственно, если не вооружить суды четкими и однозначными рекомендациями и инструкциями, чем дальше, тем больше они будут заниматься инцидентами, связанными с человеко-машинным взаимодействием, априори решая конфликты в пользу человека.

Есть еще одна проблема. Она на данный момент совершенно не отрефлектирована специалистами в юриспруденции. Особенность ИИ заключается в том, что он действует в большинстве случаев в рамках всемирной сети. Соответственно, весьма вероятно, что отказы или сбои в работе ИИ могут происходить не по причинам, связанным с программноаппаратными средствами, а с общесетевыми проблемами. На сегодняшний день нет даже наметок законодательного определения в рамках солидарной ответственности конкретной ответственности всех юридических лиц, связанных с функционированием ИИ в интернете, включая провайдеров.

§ 3. К кому приравнять ИИ: к объектам, животным или рабам?

Рассмотрение режима ответственности для ИИ неизбежно сводится к наиболее фундаментальному вопросу: можно ли рассматривать ИИ как обычный технический объект, который находится под полным контролем человека, или же ИИ обладает некоторыми элементами автономии и разумности. Если ответ положительный, то это делает возможным применение к компаниям, производящим и эксплуатирующим программно-аппаратные комплексы ИИ, того же набора правил, включая технические регламенты, отраслевые и объектные стандарты и юридические нормы, как к производителям и экслуатантам обычных технически сложных, многокомпонентных изделий, типа самолетов, кораблей и т. п.

Если ИИ рассматривается как своего рода развитие или расширение возможностей человека, то правила ответственности, применимые к людям можно ограниченно использовать и для ИИ. При этом ответственность появляется, когда имеет место субъективный элемент, например, халатность или намерение причинить вред, которые привели к нанесению ущерба, а также на основе дистрибуции собственности, которая наносит ущерб третьей стороне.

Разумно ожидать, что ИИ в перспективе будет использоваться в основном не как объект, а как услуга.

В этих обстоятельствах остается открытым вопрос, должна ли ответственность за услугу иметь договорной характер или ответственность неконтрактного характера (деликатная ответственность).

В последние годы растет число юристов, отвергающий приравнивание ИИ к обычным сложным многокомпонентным устройствам. Они предлагают рассматривать ИИ как животное, особенно в тех случаях, когда ИИ предполагает определенную степень автономии. Это опция в последнее годы подкрепляется научными исследованиями, согласно которым в ближайшие годы продвинутые системы ИИ сравняются по мощности интеллекта с кошкой. Этот вариант подразумевает, что сам по себе ИИ не имеет статуса юридического лица, но также как опасные дикие животные налагает большие дополнительные требования к собственникам ИИ, так как это сегодня действует в законодательствах большинства стран относительно ответственности владельцев диких животных. Наиболее детальная система ответственности за животных, содержащихся частными лицами в неволе, предусматривается в системе общего права США.

В последние годы ряд британских и израильских юристов предложили разрабатывать законодательство по ИИ по аналогии с римским правом в отношении рабов. Такое толкование подтверждается тем фактом, что само по себе слово «робот» впервые использованное Карлом Чапеком на чешском языке, означает «принудительный труд» или «раб». В римском праве хозяева несут ответственность за ущерб, причиненный их рабами. В южных штатах Америки еще в первой половине XIX века хозяин нес полную ответственность за каждый противозаконный поступок раба, независимо от того, был ли он совершен на службе и в рамках выполнения работ в интересах рабовладельца, либо в частной жизни раба.

Ряд американских правоведов предложили рассматривать ИИ как наемного работника и предоставлять ему юридическое лицо, а также обязанность проявлять должную осторожность. При этом, строгая ответственность по-прежнему будет возлагаться на владельца ИИ, но сам по себе ИИ, имеющий юридическое лицо, может быть запрошен для компенсации ущерба, в том числе реквизирован в пользу лица, которому был нанесен ущерб. Фактически это будет своего рода передача раба от одного рабовладельца другому в счет покрытия ущерба.

Этот американский подход связан с успехами в сверхбыстром глубинном обучении. Часть современных программистов и математиков полагают, что уже в ближайшие три-пять лет ИИ будет способен сам себе писать программы, а также реплицировать усовершенствование модели себя на автоматизированных предприятиях. В этом случае вообще не понятно, в какой роли выступает человек – собственник ИИ, и к кому предъявлять требования компенсации за нанесенный ущерб. В этой связи не вызывает удивления предложение, поступившее от Нидерландов в Европейский парламент, которое предусматривает рассмотрение семейство роботов, подключенных к единому мощному ИИ даже не как наемных работников, а как прямых юридических лиц, несущих неограниченную ответственность без связи с разработчиком.

§ 4. Действующее законодательство ЕС

Нынешние правила ЕС об ответственности за системы ИИ в основном базируются на двух законодательных актах: Директиве об ответственности за качество продукции и Директиве об ответственности за механизмы. Эти директивы предусматривают, что если устройство причиняет вред человеку или его частной собственности, то производитель несет ответственность за выплату компенсации.

Недавняя оценка показала, что директивы по-прежнему обеспечивают хороший баланс между защитой прав потребителей и поощрением инноваций. При этом ЕС пообещал, что в течение 2019 г. будут опубликованы толкования директив, где будут обновлены и привязаны к инновациям такие понятия, как «дефект», «продукт», «производитель», «узлы и детали», «программные» и «аппаратные». При этом в толкованиях предусматривается, можно ли включить использование «ИИ как услуга» в сферах действия директив, а также как интерпретировать разницу в ответственности изготовителей харда и софта.

В последнее время ЕС опубликовал Директиву по машинному оборудованию. Она устанавливает общие требования по охране труда и технике безопасности для роботов и 3D принтеров. Это – хороший пример, как совершенствуется европейское законодательство в наиболее инновационных сферах.

Директива по машинному оборудованию является законодательным актом, который предусматривает создание «нормативных песочниц», а также комплексное регулирование, включающее общеевропейское и страновое юридическое регулирование, саморегулирование ассоциаций производителей и общественный контроль со стороны гражданского общества.

Будущий режим ответственности использования ИИ должен быть разработан в сочетании с совершенствованием системы страхования. Предполагая, что всегда можно отследить ответственное лицо в автоматизированном процессе, будущие руководящие принципы политики могут потребовать, чтобы компания, разрабатывающая, внедряющая и продающая ИИ, представляла регулирующим органам финансовые документы, подтверждающие ее способность имущественно реагировать на любые потенциальные обязательства, возникающие в ходе эксплуатации ее техники. В случае если это невозможно, пользователи должны знать и иметь возможность либо отказаться от такого использования, либо обратиться к страховщикам, которые самостоятельно принимают решение о страховании подобного рода изделий.

При рассмотрении правовых основ регулирования, необходимо иметь в виду не только указанные выше директивы, но и множество отраслевых нормативных актов, регламентирующих стандарты, технические регламенты и юридические взаимоотношения. Например, страховые компании и банки уже распространяют некоторые требования о раскрытии информации, которые сложились в высокотехнологичных отраслях и на ИИ. Хорошим примером этого является Директива о распределении страхования от 1 октября 2018 г.

В соответствии с Директивой страховые компании смогут принимать на страхование лишь те сложные технические средства, производители которых предоставляют утвержденный перечень информации о техническом средстве, его компонентах, а также возможных выявленных, в том числе в ходе испытаний и практической эксплуатации уязвимостях, порождающих определенные риски.