Игорь Шнуренко – Демон внутри. Анатомия искусственного интеллекта (страница 55)
20.
Мы редактируем нашу память постфактум, предпочитая не помнить какие-то события, и усиливаем ту версию, которую храним в памяти, находя для нее всё новые подтверждения. Так наша память о событии может быть все лучше с каждым нашим рассказом о нем, правда, детали мы можем менять местами. То ли Карл украл у Клары, то ли Клара у Карла. И детали мы можем вставлять, каких не было. Этот прием хорошо известен историкам, например историкам России. Ведь эта такая наука, которая требует постоянной смены виновных и жертв местами. Главное — придерживаться одной линии всем историкам. Если захотите свести с ума Сири, спросите у нее, висела ли в 1960-е годы шикарная хрустальная люстра в Елисеевском магазине в Ленинграде. Найдутся очевидцы, видевшие люстру, найдутся и другие, которые скажут вам, что уникальная люстра — выдумка, магазин освещался обычными лампами, как и все остальные. Пусть их примирит Сири. Соответствующие принципу термины: криптомнезия, ложная память, ложная аттрибуция, податливость, эффект заполнения пустых мест (как в оптических обманках). Туда же относится 25-й кадр.
21.
Мы сбрасываем со счетов детали ради обобщений, стереотипов и предрассудков, которыми мозг каждого из нас снабжен в избытке. Мы делаем это по необходимости, но итог бывает плачевен. Предвзятость и доверие стереотипам хороши, впрочем, на телевидении. Мне кажется, в багаж знаний киберведущей Синь Сяомэн хороший набор стереотипов должен входить, иначе плохо она будет делать свою работу.
22.
Мы сводим события к самым простым и понятным нам ключевым элементам, как будто затыкаем протечку на кухне тем, что попадется под руку. Нам бывает трудно даже обобщать, поэтому любая интерпретация годится, если она прямо здесь, под рукой. Это называется затычка памяти, эффект сериальной позиции. Робот Ава вполне может использовать этот подход, чтобы сойти за человека в тесте Тьюринга.
23
Мы сохраняем события в памяти в зависимости от того, как они были прожиты. Наш мозг хранит в памяти события, которые мы считали достаточно важными на момент, когда они случились. Но бывает, что мы понимаем это только задним числом, и в этот самый момент происходило что-то, что мы считали более важным. Например, мы считали Леонида Брежнева мелким политическим деятелем времен великой певицы Аллы Пугачевой, но в последнее время до нас начинает доходить, насколько большой вклад он внес в охотничью культуру позднего СССР. А Пугачевой, как известно, не существует, это был сценический псевдоним Барбры Стрейзанд.
24.
Сюда же можно отнести эффект «в прошлом и трава была зеленей»: события прошлого, когда человек был моложе, всегда нам кажутся позитивней, чем они были на самом деле. Тест Тьюринга, ребята, уже не тот, что раньше, а еще, помните забавного человечка, который отвечал на вопросы в Windows? Он был смешной и знающий, никогда не ошибался, не то что эта Сири, от нее один металлический звон в ушах.
25.
Сюда же можно отнести Гугл-эффект или цифровую амнезию — мы хуже запоминаем даже важную личную информацию, если ее легко найти с помощью интернет-поисковиков. В 2015 году Лаборатория Касперского опросила в США тысячу клиентов в возрасти от 16 лет и старше. В большинстве случаев, люди не могли вспомнить реально важную для них информацию — например, знакомые, по идее, телефонные номера. Исследователи пришли к выводу, что номера забываются или не запоминаются из-за легкости, с которой их можно найти в поисковиках. В 2012 году американский ученый с именем словно из «Кама-Сутры» — Лав Варшни — исследовал эффект «Гугла» и обнаружил сходный феномен. Оказалось, что информация, почерпнутая из интернета, вспоминается с большей погрешностью и меньшим доверием, чем та же самая информация, почерпнутая в бумажной энциклопедии. К чему приведет, например, массовое распространение ИИ-помощников по дому типа Алексы? Не приведет ли это к тому, что мы не будем помнить, в какой комнате у нас спальня? И не поверим Алексе, когда она скажет, что это вторая дверь по коридору направо?
ПРОБЛЕМЫ НА ПУТИ СОЗДАНИЯ СИЛЬНОГО ИИ
В 1980-е прогресс в разработке суперкомпьютеров привел к появлению «компьютерной науки» (в России ее называют информатикой). Компьютерная наука исследовала процессы в разных системах через их симуляцию на компьютере в форме программ. Она отличалась от традиционной математики или физики с ее делением на теоретическую и экспериментальную, но в принципе имела дело и с той, и с другой наукой, как бы залезая на их территорию.
Сегодня примерно то же самое происходит с глубоким обучением. Исследования в этой области заходят на территорию нейронаук —так называется ничейная территория на стыке разных дисциплин, где изученают нейронные процессы, (впрочем, каждая из этих дисциплин считает территорию своей, так что она скорее спорная, чем ничейная).
На это поле делают набеги маргиналы из когнитивной науки, химии, компьютерной науки (информатики в российской версии), лингвистики, психологии, физики, медицины, философии, этологии и так далее. Если говорить кратко, мы пытаемся понять свою собственную природу, но делать это пытаемся извне самих себя. Получается немного неуклюже, но мы движемся вперед.
Почему глубокое машинное обучение получило такое распространение? Потому что оно считается наиболее быстрым путем к достижению главной цели разработчиков нейросетей — созданию системы с так называемым «сильным искусственным интеллектом». Сила ИИ определяется критерием его разумности в сравнении с человеческим уровнем и возможностями машины решать разные наборы задач. «Слабым» ИИ сегодня называют алгоритм, способный решать отдельные информационные задачи —например, по распознаванию изображений, ответам на вопросы по картинкам, переводу голоса в текст и обратно, ориентации автономного автомобиля в процессе вождения на дороге, выигрышу в той или иной игре и так далее. Если машина справляется с одной из этих задач, у нее есть «слабый ИИ».
«Сильным» или «общим» ИИ считается тот уровень машины, при котором она не только решает информационную задачу, а понимает ее смысл, может переключаться между задачами и выполнять несколько задач одновременно, может самостоятельно ставить задачи себе и другим агентам ИИ.
Деление ИИ на сильный и слабый довольно условное, ибо лет тридцать назад считалось, что если компьютер сумеет обыграть человека в шахматы, то он уж точно будет настолько умным, что ему по плечу будет и решение всех остальных задач. Компьютер научили побеждать человека не только в шахматах, но и в более сложной игре го — при этом машины, созданные для победы в этих играх, только это и умеют. То есть они оказались «слабым ИИ».
Еще одним критерием на «сильный» ИИ считают тест Тьюринга. Как вы уже знаете, уже есть чатботы, которые обманывают в этом тесте 30 процентов людей, выдавая себя за человека. Значит ли это, что алгоритм можно назвать ИИ с силой 30 процентов? Едва ли. Ведь есть алгоритмы, которые разрабатывают специально для участия в соревнованиях по тесту Тьюринга, поэтому даже его преодоление не обязательно будет означать создание «сильного ИИ».
Если говорить о машинном переводе, то некоторые считают, что если компьютер сможет переводить текст на человеческом уровне, то и все остальные задачи он сможет выполнить не хуже человека. Это связано с традиционно огромным значением, который придавали языку, его логике и лингвистике в целом с начала разработки искусственного интеллекта, еще со времен Норберта Винера. Но даже философ Людвиг Витгенштейн, о котором принято думать, что он сводил все сферы человеческой жизни к языковой практике и вообще считал язык логическим образом мира, был не столь однозначен. Например, в своих «Философских исследованиях» он писал: «А что воспринимает тот, кто чувствует серьезность мелодии? Ничего, что можно было бы передать путем воспроизведения услышанного». Вполне может оказаться, что ИИ сможет адекватно перевести самые сложные произведения художественной литературы, и при этом все-таки не доберет до уровня «сильного ИИ».
Пока ученые не очень понимают и то, как подступиться к созданию машины, которая могла бы решать несколько задач из совершенно разных областей. Это уникальное свойство человеческой природы не удается свести к какому-то алгоритму.
Так или иначе, битва за создание «сильного ИИ» идет вовсю, даже если ее участники этого не провозглашают открыто, и машины уже неплохо научились описывать мир.
Предпоследние слои искусственных нейросетей, обученных на больших массивах изображений, содержат признаки (features), очень неплохо справляющиеся с задачей обобщения. Только обучаться эти нейросети должны не на фейковых базах данных, сгенерированных компьютером, а на реальных массивах информации типа упомянутого ранее ImageNet. Или можно взять для примера гигантские и постоянно пополняющиеся базы изображений, которые накапливают для себя Google и Facebook. Эти корпорации используют для сбора информации дроны и автомобили, берут фотографии со страничек сотен миллионов пользователей, побуждая их вывешивать еще и еще, оцифровывают всё, что движется и не движется, всё, что пока не оцифровано и что в принципе можно оцифровать. Задав в случае с ImageNet вектор в 1024 числа, можно получить описание тысячи разных категорий объектов с точностью 80 процентов. Можно себе только представить, какая точность и какой масштаб описываемых категорий нашего мира имеется у Google и Facebook, базы которых являются, пожалуй, главными и самыми тщательно оберегаемыми активами этих корпораций.