реклама
Бургер менюБургер меню

Меган О’Гиблин – Бог, человек, животное, машина. Поиски смысла в расколдованном мире (страница 45)

18

Чем больше мы стремимся очистить мир от своего образа, тем больше окрашиваем его человеческими недостатками и фантазиями. Чем больше мы стараемся устранить себя и свои интересы из уравнения, тем больше получаем могущественных систем, погрязших в человеческих предрассудках. В этом и состоит парадокс, на который обратила внимание Арендт в своем эссе о покорении космоса, позаимствовав его у Вернера Гейзенберга. Гейзенберг утверждал, что квантовая механика затрудняет поиски «истинной реальности», которая-де таится за воспринимаемым нами миром. Всякий раз, когда человек пытается выйти за пределы своей точки зрения, говорил Гейзенберг, он неизбежно «встречает лишь самого себя». Арендт распространяет эту идею на современные технологии. Инструменты, которые мы создаем, задумываются как совершенно объективные. Но поскольку эти инструменты сделаны по нашему образу и подобию и в определенных исторических условиях, у современного технологического субъекта «будет тем меньше шансов встретить что-либо, кроме его самого и созданных им вещей, чем сильнее он желает устранить все антропоцентрические соображения из взаимодействия с окружающим его нечеловеческим миром». Мы не оставляем попыток выйти за пределы себя и своих интересов, и все же чем больше мир наполняется нашими инструментами и технологиями, тем меньше вероятность, «что человек встретит в окружающем его мире что-то… не являющееся в конечном счете им самим в другом обличье».

Сегодня мы можем привести в пример достаточно технологий, которые отражают нас самих «в другом обличье». Хотя самые впечатляющие технологии машинного обучения часто описываются как «инопланетные» и отличные от нас, они склонны к ошибкам, которые слишком похожи на человеческие. Поскольку эти алгоритмы опираются на информацию о прошлом для прогнозирования будущего, на их решениях сказываются предрассудки, свойственные нашей общественной и социальной реальности. Алгоритмы Google показывают женщинам больше объявлений о низкооплачиваемой работе, чем мужчинам. Как выяснилось, алгоритмы службы быстрой доставки в Amazon игнорируют районы, населенные преимущественно чернокожими. Расследование журналистской НКО ProPublica показало, что COMPAS оценивает чернокожих обвиняемых как более склонных к рецидивизму. Эти системы не запрограммированы в пользу определенной расы или пола; на самом деле они даже не учитывают эти факторы в своем анализе. Но информация, на которую они ориентируются, – почтовые индексы, уровень доходов, история арестов и судимостей – часто несет на себе отпечаток исторического неравенства. В итоге решения, принимаемые машиной, усиливают существующее социальное неравенство, создавая петлю обратной связи, что еще больше затрудняет преодоление расовых и гендерных предрассудков, которые давно преследуют наше общество.

На самом деле проблема предвзятости алгоритмов уже привлекала внимание обеспокоенной публики, хотя многие из предлагаемых решений лишь еще сильнее запутывают моральную сторону дискуссии. В большинстве случаев компаниям предлагается улучшить свое программное обеспечение, чтобы оно допускало меньше ошибок, или использовать наборы данных, которые точнее отображают этническое разнообразие в стране. Последнее предложение особенно часто звучит в дискуссиях о технологиях распознавания лиц, печально известных тем, что они допускают ошибки, сканируя лица людей с черной или смуглой кожей. В 2020 году это стало причиной первого ошибочного ареста по вине алгоритма. История Роберта Джулиана-Борчака Уильямса, чернокожего мужчины из Детройта, который был арестован после того, как программа распознавания лиц ошибочно опознала в нем магазинного вора с камеры наблюдения, освещалась многими национальными изданиями, на страницах которых бесконечные эксперты-юристы заламывали руки и требовали улучшения алгоритмов. Но во многих случаях такие призывы к совершенствованию только дают добро на более широкое внедрение технологий слежения. Как отмечает Ванг в «Карцеральном капитализме», сам факт, что в некоторых местах устанавливаются системы слежения, оснащенные алгоритмами глубокого обучения, указывает, что определенные места считаются требующими надзора, – это еще один пример системной предвзятости. (Преступления, совершающиеся на Уолл-стрит или в преимущественно белых пригородах, не учитываются алгоритмами, потому что за этими районами не так пристально наблюдают.) Создание более эффективных алгоритмов неизбежно требует большего количества данных, поэтому призывы к совершенствованию технологий «используются для оправдания массовой слежки и расширения полицейских и судебных операций, которые становятся источниками данных». Этим словам вторит Хамид Хан – общественный деятель, сыгравший важную роль в том, что в 2020 году Департамент полиции Лос-Анджелеса был вынужден отказаться от использования прогностических алгоритмов. Хан утверждает, что государственная политика, направленная на обеспечение прозрачности, подотчетности и управленческого контроля, слишком часто приводит к тому, что полномочия контролирующих органов начинают неограниченно разрастаться. «Мы не боремся за объективные алгоритмы, поскольку не верим, что можно разработать объективный алгоритм для полицейского надзора, даже с чисто математической точки зрения», – говорит он.

Конечно, куда проще свалить вину за несправедливость на плохо работающие алгоритмы, чем осмысленно бороться с тем, что они говорят о нас и нашем обществе. Во многих случаях картина, которую они рисуют, оказывается малоприятной. В качестве примера, который широко освещался в СМИ, можно вспомнить Tay – чатбота с искусственным интеллектом, выпущенного Microsoft в 2016 году. Тау была разработана для общения с людьми в Twitter и обучалась на основе взаимодействия с пользователями. Уже через шестнадцать часов она начала изрыгать расистские и сексистские оскорбления, отрицать Холокост и заявлять, что поддерживает Гитлера. Еще более показательным был случай с нейросетью, обученной на изображениях прошлых президентов США. Летом 2016 года эта нейросеть предсказала, что Дональд Трамп победит на предстоящих выборах. На протяжении нескольких месяцев этот факт приводился как иллюстрация того, что искусственный интеллект очень легко ввести в заблуждение. Как отметил за несколько дней до выборов один из исследователей Google, поскольку в наборе данных не было женщин-президентов, «ИИ не смог определить, что пол не является релевантной характеристикой для модели». Учитывая, что Хиллари Клинтон действительно проиграла на тех выборах и что дебаты вокруг них постоянно возвращались к теме сексизма и двойных стандартов, можно сказать, что догадка алгоритма была верной: пол действительно является релевантной характеристикой. Машина знала нас лучше, чем мы сами.

Для Арендт проблема заключается не в том, что мы продолжаем создавать вещи по нашему образу и подобию, а в том, что мы приписываем этим рукотворным объектам некую трансцендентную силу. Вместо того чтобы сосредоточиться на том, как улучшить жизнь с помощью науки и технологий, мы начали верить, что созданные нами инструменты могут открыть нам доступ к высшим истинам. Стремление отправить человека в космос стало для Арендт метафорой этой мечты о научной трансцендентности. Она пыталась представить, как должна выглядеть Земля и земная человеческая деятельность издалека, из открытого космоса:

Если из этой точки мы посмотрим вниз, на происходящее на Земле и на разнообразную деятельность людей (т. е. если мы приложим архимедову точку к себе самим), то вся деятельность людей действительно предстанет перед нами как всего лишь «внешнее поведение», которое можно изучать теми же методами, какими мы изучаем поведение крыс. Если взглянуть с достаточного расстояния, то автомобили, в которых мы путешествуем и которые, по нашему разумению, мы создали самостоятельно, будут выглядеть, как однажды выразился Гейзенберг, «частью нас самих, такой же неотторжимой, как раковина – от живущей в ней улитки». Все наше могущество сведется к какой-нибудь мутации людского рода, и мы уже не сможем им гордиться; вся техника, при взгляде на нее из этой точки, предстанет уже не «результатом сознательных стараний человека приумножить свои материальные способности», а, скорее, крупномасштабным биологическим процессом». При таких обстоятельствах речь и повседневный язык перестанут быть осмысленными высказываниями, которые выходят за пределы поведения, даже если всего лишь его выражают, и их с куда большим успехом заменит крайний и сам по себе бессмысленный формализм математических знаков[74].

Проблема в том, что позиция, столь далекая от человеческой природы, не может объяснить человеческую деятельность. Глядя на Землю из архимедовой точки, мы вынуждены рассматривать наши изобретения не как исторический выбор, а как часть неумолимого эволюционного процесса, который полностью детерминирован и телеологичен, совсем как история Сингулярности, популяризованная Курцвейлом.

В этой огромной машине мы неизбежно оказываемся всего лишь винтиками, неспособными внятно объяснить собственные действия, поскольку единственным настоящим языком оказывается язык математики, который машины понимают гораздо лучше, чем люди. Примерно об этом предупреждал Джарон Ланье в статье, написанной в ответ на предложение Криса Андерсона отказаться от научного метода и обратиться за ответами к алгоритмам. «Смысл научной теории не в том, что ее оценит ангел небесный, – писал Ланье. – Смысл в том, что она служит человеческому пониманию. Наука без поиска теорий – это наука без людей». От чего мы в итоге отрекаемся – так это от необходимости находить смысл в своих эмпирических наблюдениях и определять для самих себя, что такое справедливость, мораль и качество жизни. Мы отказываемся от этой почетной обязанности каждый раз, когда забываем, что смысл – это человеческая категория, которую нельзя свести к голым числам. Забыть об этой истине – значит использовать наши инструменты в ущерб собственным интересам: создавать по нашему образу и подобию машины, которые в ответ только дегуманизируют нас. Арендт цитирует Кафку, лаконично подводящего итог этой дилемме: человек, по его словам, «нашел архимедову точку, но использовал ее против самого себя; похоже, только на этих условиях ему и было позволено ее найти»[75].