реклама
Бургер менюБургер меню

Тоби Орд – На краю пропасти. Экзистенциальный риск и будущее человечества (страница 31)

18

Но что самое главное – AlphaZero умела не только играть в шахматы. Тот же самый алгоритм с нуля научился играть в го и за восемь часов значительно превзошел способности любого человека. Ведущие мировые игроки в го привыкли считать, что играют почти идеально, и потому разгромное поражение стало для них неожиданностью[403]. Действующий чемпион мира Кэ Цзе сказал: “Человечество потратило тысячи лет на совершенствование своей тактики, но теперь компьютеры говорят нам, что мы заблуждались… Я бы даже сказал, что никто из людей пока и близко не подобрался к истине го”[404].

Именно общий характер передового ИИ и производит на нас самое сильное впечатление, возрождая у исследователей амбиции догнать и превзойти человеческий интеллект по всем параметрам. Такой подход иногда называют созданием общего искусственного интеллекта (ОИИ), чтобы не путать его с более узкими подходами, господствующими в отрасли. Хотя нестареющие игры в шахматы и го лучше всего демонстрируют великолепие глубокого обучения, его размах стал очевиден при работе с видеоиграми Atari 1970-х годов. В 2015 году исследователи разработали алгоритм, способный научиться играть в десятки совершенно разных игр Atari гораздо лучше, чем человек[405]. В отличие от систем для шахмат и го, которые отталкиваются от символического представления игральной доски, системы для Atari обучались играм, ориентируясь непосредственно на счет и на пиксели на экране. Они доказывают возможность создания систем общего искусственного интеллекта, поскольку учатся управлять миром на основе необработанных визуальных данных и достигают своих целей во множестве разнообразных сред.

Этот рывок вперед за счет применения глубокого обучения вселяет в нас огромный оптимизм относительно того, что станет возможно в недалеком будущем. Стремительно растет и число исследователей ИИ, и объем венчурного финансирования, поступающий в отрасль[406]. Предприниматели стараются реализовать на практике каждый новый прорыв, от систем синхронного перевода, личных помощников и беспилотных автомобилей до изобретений, внушающих бо́льшую тревогу, таких как усовершенствованные системы наблюдения и смертоносное автономное вооружение. Настало время больших надежд и огромных этических трудностей. Высказываются серьезные опасения о том, что ИИ укореняет социальную дискриминацию, вызывает массовую безработицу, поддерживает слежку с репрессивными целями и нарушает принципы ведения войны. О каждом из этих опасений можно написать отдельную главу. Но в этой книге рассматриваются экзистенциальные риски, с которыми сталкивается человечество. Может ли развитие ИИ представлять риск такого огромного масштаба?

Рисунок 5.1. Показатели развития ИИ и уровня интереса к нему. Лица демонстрируют недавний стремительный прогресс в создании реалистических изображений “вымышленных” людей. Графики показывают долгосрочный прогресс шахматного ИИ, который в конце концов превзошел лучших гроссмейстеров (по рейтингу Эло), и недавний рост научной активности в отрасли, оцениваемой по числу статей, размещенных в arXiv, и посещаемости конференций[407].

С наибольшей вероятностью экзистенциальный риск возникнет в том случае, если исследователям ИИ удастся реализовать свои великие амбиции по созданию систем общего искусственного интеллекта, способности которых превзойдут человеческие. Но стоит ли этого ожидать, а если да, то когда именно? В 2016 году был проведен обстоятельный опрос, в котором приняло участие более 300 ведущих исследователей машинного обучения[408]. Их спросили, когда система ИИ “сможет выполнять любую задачу лучше человека и при меньших затратах”, и они оценили вероятность того, что это случится к 2061 году, в среднем в 50 %, а того, что это случится уже к 2025 году, – в 10 %[409].

Эти данные следует интерпретировать с осторожностью. Это не столько оценка того, когда будет создан ОИИ, сколько ответ на вопрос, что́ специалисты считают вероятным, – и согласия между экспертами нет. Тем не менее очевидно, что экспертное сообщество в целом не считает ОИИ недостижимой мечтой, а полагает, что он может появиться в ближайшее десятилетие и скорее появится, чем нет, в ближайшее столетие. Возьмем это за ориентир при оценке рисков и рассмотрим, что случится, когда будет создан ОИИ[410].

Человечество сегодня само вершит свою судьбу. Мы можем выбирать свое будущее. Разумеется, у каждого из нас свое представление об идеальном будущем и многим важнее личные дела, чем стремление к идеалу. Но если бы этого захотело достаточное число людей, мы могли бы выбрать любой из бесчисленных вариантов возможного будущего. У шимпанзе такого выбора нет. Нет его и у дроздов. И у любого другого из земных видов. Как мы узнали из первой главы, наше уникальное положение в мире объясняется уникальными особенностями нашей психики. Непревзойденный интеллект наделил нас непревзойденной силой, а следовательно, вверил нам контроль над своей судьбой.

Что случилось бы, если бы в текущем столетии исследователи создали общий искусственный интеллект, превосходящий человеческие способности почти во всех сферах? Этим актом творения мы положили бы конец эпохе, когда человек был самой разумной сущностью на Земле. Следовательно, если у нас не имеется надежного плана по контролю за ИИ, нам следует ожидать, что мы лишимся своего статуса самого могущественного вида, который сам вершит свою судьбу[411].

Само по себе это, возможно, не дает особых причин для беспокойства. Существует немало способов при хорошем раскладе удержать контроль в своих руках. Так, мы можем попытаться разработать системы, которые неукоснительно подчиняются командам человека. Или системы, которые вольны делать что угодно, но имеют задачи, полностью совпадающие с нашими, а следовательно, строят идеальное будущее не только для себя, но и для нас. К несчастью, немногочисленные исследователи, разрабатывающие подобные планы, обнаружили, что сделать это гораздо сложнее, чем казалось. Именно они и высказывают опасения громче всех.

Чтобы понять причину их беспокойства, стоит тщательнее изучить существующие технологии ИИ и разобраться, почему их сложно настраивать и контролировать. Один из основных подходов к созданию ОИИ подразумевает комбинацию глубокого обучения и обучения с подкреплением, которое появилось раньше. Этот метод предполагает наличие агентов, которые получают вознаграждение (или штраф) за выполнение разных действий в различных обстоятельствах. Например, агент, играющий в Atari, получает вознаграждение, когда набирает очки в игре, а агент, собирающий конструктор лего, может получать вознаграждение, когда детали соединяются друг с другом. Достаточно разумный и опытный агент искусно изменяет свою среду таким образом, чтобы создавать условия для получения высокого вознаграждения.

Комбинация действий и состояний, которые приносят агенту вознаграждение, называется функцией вознаграждения. Ее могут либо задавать разработчики (как в упомянутых выше случаях), либо выводить сам агент. В последнем случае агент, как правило, наблюдает за тем, как задачу выполняет специалист, и логически выводит систему вознаграждений, которая лучше всего объясняет, почему специалист действует именно так, а не иначе. Например, ИИ-агент может научиться управлять дроном, если понаблюдает за тем, как им управляет специалист, а затем выведет функцию вознаграждения, которая наказывает его, если он летает слишком близко к препятствиям, и вознаграждает, если он добирается до пункта назначения.

К сожалению, ни один из этих методов нельзя без труда масштабировать таким образом, чтобы закодировать человеческие ценности в функцию вознаграждения агента. Наши ценности слишком сложны и неочевидны, чтобы описать их вручную[412]. И мы пока даже близко не подошли к тому, чтобы вывести систему ценностей человека во всей ее сложности из наблюдений за его поведением. Даже если бы такое было нам под силу, людей в человеческой общности слишком много и их ценности различаются, меняются со временем, а также не всегда понятны даже им самим. Каждое из этих осложнений ставит глубокие и нерешенные вопросы о том, как обобщать наблюдаемое в единую картину человеческих ценностей[413].

Итак, в ближайшем будущем любая попытка откалибровать ИИ-агент в соответствии с человеческими ценностями позволит нам создать лишь несовершенную копию нашего разума. В функции вознаграждения такого агента будет недоставать важных аспектов того, что нас заботит. При определенных обстоятельствах не совсем верная калибровка агента будет практически безвредной. Но чем умнее ИИ-системы, тем больше у них возможностей менять мир и тем сильнее рассинхронизация. Философия и литература часто предлагают представить себе общества, которые выстроены с учетом важных для нас принципов, но при этом пренебрегают крайне значимыми ценностями или неправильно понимают их. Глядя на результат, мы видим, что подобные неконтролируемые утопии могут привести к катастрофе: пустоте и выхолощенности, как в романе “О дивный новый мир”, или несамостоятельности и бессилию общества из “Со сложенными руками”[414]. Если мы так и не научимся контролировать своих агентов, они будут создавать и поддерживать именно такие миры[415].