Игорь Шнуренко – Демон внутри. Анатомия искусственного интеллекта (страница 41)
Пионерами освоения интернета выступили порносайты, которые, собственно, десятилетиями создавали спрос на самые продвинутые технические решения. Они же были первыми, кто успешно монетизировал всемирную паутину.
Какие тренды смогут в большей степени продвинуть распространение технологий искусственного интеллекта? Одним из таких трендов вполне может стать изготовление глубоких фейков.
Глубокий фейк — это визуальное или аудиовизуальное сообщение, обладающее всеми признаками реального, но которое, однако, является ложью, искусной имитацией. Новейшие достижения нейросетей и машинного обучения позволяют редактировать аудио или видеозапись, полученную «естественным» путем, чтобы добиться нужного эффекта. Можно создать и полностью фейковое видео, хотя это потребует больше ресурсов — ведь так или иначе, данные нужно откуда-то брать.
Не так давно соцсети обошла подделка выступления действующего президента США, где он говорил абсурдные вещи, сопровождая свою речь гримасами и ужимками. Создавалось полное впечатление, что говорит именно Трамп — настолько искусно все было сделано. Но на самом деле это был «глубокий фейк» изготовленный при помощи нейросетей. Его создатели взяли запись американского актера Алека Болдуина, который превратил свое пародирование Трампа в профессию. Затем ИИ превратил лицо загримированного под Трампа актера в лицо «Трампа», и провел эту операцию через весь кусок записи. Таким образом, ужимки Болдуина стали «трамповскими». Что касается звука, то его просто подстроить под нужный тембр, тем более что у Болдуина и так неплохо получается. В итоге был готов кусок записи, который с виду не отличается от реального, будучи абсолютным фейком.
Как искусственный интеллект это делает? Начнем с того, что у нейросетей нет морали, во всяком случае, пока моральные характеристики в параметры нейроморфных чипов не включены. Да и есть ли принципиальная разница между кибернетической телеведущей и фейком Трампа? Первую изготовить сложнее, только и всего — но уже сейчас вполне можно изготовить Кибертрампа, который 24 часа в сутки 7 дней в неделю будет выдавать перлы на любом языке, бросая мысль на полпути и переключаясь на следующую, уходя в сторону рассказами о том, что сказал ему дядя тридцать пять лет назад, со всеми звуковыми эффектами коверного и неожиданными жестами, и зрители полюбят Кибертрампа не хуже оригинала, и никто не поверит в то, что это просто «душа», изготовленная по мерке, демон внутри алгоритма в коробочке с чипами, и, может быть, очень может быть, что люди уже и не захотят никакого оригинала.
Как мы читаем? Дети и неграмотные делают это сначала по буквам, потом по складам. Потом мы читаем скачками, предсказывая слова. Предсказания могут быть ошибочными, например, из-за неверных стереотипов, которые мы втемяшили себе в голову. Но мы можем продолжать обманывать себя. Вспомним парадокс Моравека и не станем удивляться тому, что проще всего обманывать себя идеями высокого уровня абстракции (такими как нация, государство, демократия, коммунизм, свобода слова, рыночная экономика и так далее).
Куда сложнее обманываться более простыми образами, такими как изображение на экране или надпись на уличном знаке. И если от абстрактных идей высокого уровня человек может отказаться — например, разочаровавшись в них, — то вряд ли вам удастся развидеть надпись на заборе. Хотя вы вполне можете сперва прочитать не то, что там написано, со второго раза и медленнее вы все прочтете правильно. Раньше фальсификации строились больше как раз на особенностях человеческого восприятия, на том, что человек принимает желаемое за действительное. ИИ очень искушен в обмане, который он умеет делать лучше правды. Подобные глубокие фейки станут частью нашей культуры и жизни, и, очень возможно, ИИ сумеет преподнести и идеи высокого уровня с убедительностью надписи на заборе — так, что мы потеряем способность отказаться даже от явных — в теории — заблуждений. Мы вроде бы понимаем, что человек в ракете стареет медленнее, но это чисто теоретическое знание. А вот кирпич, падающий нам на голову, вызывает острое желание увернуться. Так будет и с нашим восприятием правды и лжи. К правде мы будем относиться как к теории относительности, а ко лжи — как к закону тяготения.
Станет значительно легче манипулировать массами — и в этом видится еще одно, и весьма ближайшее применение нейросетей.
Собственно, фейковые данные уже сегодня вовсю используются в машинном обучении. Это делается, конечно, не с целью заморочить кому-то голову — во всяком случае, пока. Точнее, голову все-таки морочат — если так можно назвать нейросеть, которой для начала работы нужна уйма данных.
Сегодня в большом количестве выходят книжки о «больших данных», в которых каждому предприятию и организации, каждой компании рекомендуется завести своего Главного Офицера по Данным, своего Директора Данных, и срочно начинать собирать все возможные данные, на которые падет глаз. Какие-то данные можно использовать самим, какие-то лучше продать, но нам сказали, что данные — это новая нефть, поэтому давайте датаизировать всё. Есть уже и религия — датаизм, о которой которой много пишет Юваль Ной Харари. Говорят, что уже повсюду, от отделений Сбербанка до мусорных полигонов Челябинской области, тайно сооружаются небольшие храмчики датаизма, соединенные в сеть. Так или иначе, молох датаизма требует нести к нему на престол все новые и новые данные, причем размеченные.
Проблема в том, что не у всех это получается.
Ведь такие компании, как Google, Facebook, Amazon или китайский поисковик Baidu обучают свои машины на гигантских массивах данных, собранных у своих пользователей совершенно бесплатно, под покровом мрака, да и среди бела дня. А у какой-нибудь небольшой компании таких возможностей просто нет, что ставит ее в невыгодное положение по сравнению с компьютерными гигантами. Страшно было бы представить, что было бы, если бы даже мелкие фирмы имели бы достаточно данных, чтобы обучать свои небольшие искусственные интеллекты.
Тогда мы бы уже сегодня жили в мире, где все за нас делали бы роботы, от доставки умного кофе в умную постель до беспилотной перевозки прямо на криокладбище в комфортабельном умном гробу — тех, кого хватит удар от слишком быстрого наступления будущего. Впрочем, за вашу жизнь поборется робот-хирург, он не успокоится, пока клетка за клеткой не вытащит вас с того или иного света. После гибернации роботы имплантировали бы наши отдохнувшие мозги в выбранные алгоритмом для нас тела, принимали бы на работу и, соответственно, увольняли бы.
Знакомый нам мир быстро превращается в сериал «Черное зеркало», и если не у всех бизнесов есть настоящие данные, чтобы скормить их нейросетям, можно обойтись наборами фейковых данных.
ФЕЙКОВОЕ МАШИННОЕ ОБУЧЕНИЕ
Например, израильская компания Neuromation создала для одной из аналитических фирм массив размеченных изображений товаров на полках супермаркета. Фирма работает с такими сетями, как «Ашан», предлагая им свои услуги по отслеживанию товаров.
Модель с ИИ обучается на этом массиве распознавать продукты на полках с тем, чтобы проверять наличие товара, фиксировать в реальном времени продажи и так далее. Чтобы наснять такой массив изображений в реальности, нужны большие ресурсы. Ведь нужно не просто сфотографировать товар — а это отдельное искусство, нужно еще и вручную поставить на нем метку с категорией. Сколько для этого потребуется специально обученных сотрудников, если этих товаров сотня тысяч и больше? В Neuromation пошли по другому пути. Они создали трехмерные модели упаковок товаров, всех этих коробочек, бутылочек и пакетиков, наложили на них текстуры разных этикеток, разместили эти трехмерные модели на полках и получили, таким образом, целый массив размеченных данных. При этом важно было создать шум, то есть сделать так, чтобы объекты на полках были размещены самым случайным образом, в полном беспорядке, да еще и с ошибками. Сделав это, компания получает для обучения нейросетей некий типовой набор изображений уже классифицированных продуктов, только с той разницей, что изображения эти не настоящие, а сгенерированные компьютером. Компьютерная модель учится распознавать и классифицировать эти фейковые изображения, которые, надо признать, выглядят совершенно неестественно для человеческого глаза. Если посмотреть на тот массив, что «скармливается» компьютеру для обучения, видно, например, что тушка свиньи выглядит не живой, а просто наклеенной. Но свинья есть свинья, она подписана как свинья, имеет форму свиньи, и на выходе ИИ опознает ее, скорее всего, как свинью. Что и требуется.
Neuromation, конечно, не использует термин «фейковые данные» для обозначения этих изображений, предпочитая нейтральное выражение «синтетические данные». Действительно, мы же не говорим «эта рубашка из фейкового шелка», имея в виду «искусственный шелк». Слово «фейковый» имеет явно негативную коннотацию, как если бы кто-то что-то скрывал, но компания ведет открытую игру и никого не обманывает.
Синтетические данные —это данные, сгенерированные компьютером, которые имитируют реальные данные; другими словами, это данные, созданные не человеком, а компьютером. В прекрасном новом мире искусственного интеллекта в искусственных данных нет ничего особенного. Синтетические данные помогают в обучении нейросети определенным реакциям на определенные ситуации, просто заменяя данные, собранные в реальном мире, на компьютерные имитации. Самое главное, чтобы данные, будь они синтетическими или реальными, были промаркированы — только тогда ими можно будет пользоваться.