реклама
Бургер менюБургер меню

Елена Ларина – Искусственный интеллект. Этика и право (страница 25)

18

ЕС в отличие от некоторых других стран и региональных объединений уделяет и будет продолжать уделять самое пристальное внимание защите данных. Европейская Комиссия будет и далее финансировать исследования, инновации, стандартизацию в области конфиденциальности «по умолчанию» или «по замыслу». ЕС будет всячески поощрять провайдеров и обработчиков данных, реализовывать для их хранения и анализа наиболее эффективные криптографические решения, и в первую очередь гомоморфное шифрование и нулевое доказательство знаний. Магистральным направлением развития баз данных и хранилищ неструктурированной информации Еврокомиссия полагает переход от традиционных решений к решениям, основанным на блокчейне. Эти решения уравнивают в правах правительства, бизнес, гражданское общество и позволяют выстраивать не только и без того господствующие вертикальные связи, но и горизонтальные цепочки создания ценностей на основании данных. ЕС полагает, что блокчейн-технологии станут основным направлением хранения и обработки данных на ближайшую перспективу.

Необходимо решить вопрос, связанный с разрешением интеллектуального анализа текстов и данных, как в исследовательских, так и в коммерческих целях. В отличие от Соединенных Штатов, Китая и России, в Европе крайне затруднен интеллектуальный анализ текстов по причине необходимости соблюдения авторского права. В отличие от упомянутых стран, в Европе для того, чтобы осуществлять интеллектуальный анализ текста, необходимо получить согласие автора текста или правообладателя. На практике это невозможно. В связи с этим уже сегодня европейский бизнес, который подчиняется жестким этическим принципам (так называемому этическому анализу данных) проигрывает своим конкурентам за океаном, в Китае и России.

В ближайшее время эксперты ЕС рекомендуют избегать дальнейшего ужесточения регулирования доступа к данным, связанного с соблюдением авторского права, интеллектуальной собственности и т. п. В целом бизнес не одобряет новый тип права собственности на данные и указывает, что ключевой вопрос во взаимодействии касается не только собственности, но и того, как организован доступ. Нынешние правила фактически блокируют возможность специализированных компаний обрабатывать личные данные, а также данные, на которые распространяется право интеллектуальной собственности.

Существует необходимость в осуществлении большей ясности относительно правовой основы для машинно генерируемых данных. Европейская Комиссия полагает, что в ближайшем будущем регулирование данных будет связано с переходом от общих регулятивных документов к отраслевым, учитывающим конкретную специфику. Безусловно, переход к уже одобренным на уровне ЕС правилам и подходам к правовому регулированию доступа, хранения и обработки данных, потребует всестороннего учета интересов не только собственников данных, но и их провайдеров, а главное, конечных потребителей.

Возможно, наиболее острый вопрос в ЕС – это тема использования персональных и индивидуальных, но обезличенных данных. Законодательство ЕС – не просто наиболее сырое среди всех ведущих IT зон мира, но и носит по существу почти запретительный характер. По мнению целевой группы, эта тема является предметом наиболее острых дискуссий, как в законодательных органах стран ЕС, так и в гражданском обществе.

При всей разнородности позиций фактом остается то, что сверхжесткое регулирование, по сути, запрет использования персональных и даже обезличенных индивидуальных данных не позволили не то, что в масштабах отдельных стран, но и ЕС в целом, создать континентальный поисковик, конкурирующий с Google, Bing и Yandex, собственную европейскую социальную сеть или торговую платформу, типа Amazon. Хорошо известно, что в основе экономики этих платформ лежит сделка между ними и пользователями, когда бесплатный доступ к услугам платформы разменивается на бесплатный доступ к данным о пользователе. Эту сделку потребители осуществляют вполне сознательно и ставят специальный значок согласия. Если ЕС не осознает это и не изменит своей позиции, то окончательно и бесповоротно превратится в рынок для сторонних платформ. Это в цифровом мире равносильно колониальному статусу.

§ 6. Принципы ОЭСР по ответственному управлению надежным ИИ

25 мая 2019 года все 36 стран, входящих в Организацию экономического сотрудничества и развития (ОЭСР), поддержали Принципы ответственного управления надежным ИИ[13]:

1. Инклюзивный рост, устойчивое развитие и благополучие

Заинтересованные стороны должны активно участвовать в ответственном управлении заслуживающим доверия ИИ в достижении полезных результатов для людей и планеты, таких как расширение человеческих возможностей и повышение креативности, расширение участия недопредставленных групп населения, сокращение экономического, социального, гендерного и другого неравенства и защита природной среды, таким образом стимулируя инклюзивный рост, устойчивое развитие и благосостояние;

2. Ориентированные на человека ценности и справедливость

а) Участники ИИ должны уважать верховенство закона, права человека и демократические ценности на протяжении всего жизненного цикла системы ИИ. К ним относятся свобода, достоинство и автономность, конфиденциальность и защита данных, недискриминация и равенство, разнообразие, справедливость, социальная справедливость и трудовые права, признанные на международном уровне.

б) С этой целью субъекты ИИ должны внедрять механизмы и гарантии, такие как способность к человеческой решимости, которые соответствуют контексту и соответствуют уровню техники;

3. Прозрачность и объяснимость

Участники ИИ должны обеспечить прозрачность и ответственное раскрытие информации о системах ИИ. С этой целью они должны предоставлять значимую информацию, соответствующую контексту и соответствующую уровню техники:

• способствовать общему пониманию систем ИИ,

• информировать заинтересованные стороны об их взаимодействии с системами искусственного интеллекта, в том числе на рабочем месте,

• дать возможность пострадавшим от системы ИИ понять результат и внутривенно дать возможность тем, на кого система ИИ оказывает негативное воздействие, оспаривать ее результаты на основе простой и понятной информации о факторах и логики, которая послужила основой для прогноза, рекомендации или решения;

4. Надежность и безопасность

а) Системы AI должны быть надежными и безопасными на протяжении всего их жизненного цикла, чтобы в условиях нормального использования, предполагаемого использования или неправильного использования или других неблагоприятных условий они функционировали надлежащим образом и не представляли необоснованного риска для безопасности;

б) с этой целью субъекты ИИ должны обеспечивать отслеживаемость, в том числе в отношении наборов данных, процессов и решений, принятых в течение жизненного цикла системы ИИ, для обеспечения возможности анализа результатов и ответов системы ИИ на запрос, соответствующих контексту и в соответствии с уровнем техники;

с) субъекты ИИ должны, исходя из своих ролей, контекста и способности действовать, применять систематический подход к управлению рисками на каждом этапе жизненного цикла системы ИИ на постоянной основе для устранения рисков, связанных с системами ИИ, включая конфиденциальность, цифровую безопасность, безопасность и предвзятость;

5. Подотчетность

Участники ИИ должны нести ответственность за надлежащее функционирование систем ИИ и за соблюдение вышеуказанных принципов, исходя из их ролей, контекста.