Игорь Шнуренко – Демон внутри. Анатомия искусственного интеллекта (страница 63)
Наука сначала отделила природу от человека, потом, собравшись с силами, нанесла по природе удар, а теперь принялась за культуру и, следовательно, за самого человека. При этом мастера культуры по большей части перешли на сторону науки и стали своего рода троянскими конями технократов.
Недавно сообщалось, что Юрий Башмет вместе с симфоническим оркестром исполнил на концерте в Сочи сочинение нейросети «Яндекс». Искусственный интеллект выступил в роли композитора, музыкант-человек написал на мелодические линии нейросети аранжировки, а выдающийся альтист закрепил введение ИИ в святая святых творчества. Новость о концерте прошла почти незамеченной, и надо полагать, что через какое-то время вряд ли кто удивится, если ИИ сам напишет и сам исполнит свою музыку перед благодарной публикой, которая забросает его — нет, не цветами, а, по всей видимости, лайками.
Видимо, ни одна отрасль человеческой деятельности не укроется от молота науки. Традиции, культурный опыт и сам дух творчества, все, что вдохновляло и вдохновляет людей, что является для них источником радости и высокого наслаждения, будут, по всей видимости, дегуманизированы. Уже сегодня процесс выемки собственно человека из современного искусства можно считать завершенным.
Культура становится таким же черным ящиком, как и бытовые системы с искусственным интеллектом. Она создает удобства, но совершенно непонятно, как она работает, да и не надо понимать. Человеку не останется места
в искусстве точно так же, как он вытесняется из самой науки, где искусственный интеллект заменит сотни тысяч ученых, которые работают как на конвейере.
Информационное бессмертие, которое сулит Курцвейл человеку уже в этой жизни, конечно, полностью противоречит христианским убеждениям. Тут наука переходит границу, которую не пересекала в прошлые века никогда. Грешен ты или нет, ты можешь скачать себя на искусственный носитель и через много лет загрузить туда, куда предпишет тебе это сделать Суперинтеллект — ибо вряд ли человеческое законодательство будет к тому времени иметь значение.
ПИСАТЕЛЬСКИЕ ФАБРИКИ И ЧИТАТЕЛЬСКИЕ ФЕРМЫ
ИДЕАЛЬНЫЙ ФЕЙКОМАТ
Конкуренция на рынке внимания обостряется, и для того, чтобы вырваться вперед, книгоиздатели готовы применить технологии Искусственного интеллекта. Он станет главным действующим лицом литературного процесса, идеальным «литературным негром», критиком и маркетологом.
Писателей ждут фабрики, а читателей — фермы, где они будут обслуживать машину. Но, возможно, технологическая сингулярность, сделав Сверхразум независимым, вдохнет в литературу вторую жизнь
В феврале 2019 года одна из ведущих в мире лабораторий по развитию искусственного интеллекта OpenAI опубликовала описание своей модели GPT-2, которая обладает выдающимися литературными способностями.
Отталкиваясь от некоторого образца, она может написать внятный и качественный текст практически любого объема, причем делает это, в отличие от прежних моделей, без человеческой помощи. В публикации в журнале MIT Technology Review был приведен пример, когда заданным образцом служила фраза «Recycling is good for the world» («Повторное использование — благо для мира»), и машина написала на эту тему вполне осмысленное сочинение.
В журнале утверждается, что качество текстов очень высоко по всем метрикам и читатели не смогут распознать, что «произведение» сгенерировано машиной. Опубликованный кусок подтверждает этот вывод: он мог бы быть, пожалуй, написан старшеклассником для школьного сочинения.
Как это достигается? Машины-писатели сегодня, как правило, работают по предсказательной модели, то есть базируясь на предыдущем тексте, они предсказывают следующую фразу, следующее слово и так далее. В итоге получается текст заданного объема. Языковым сырьем, с которым работает память таких машин, служит «Википедия», объем которой составляет сегодня порядка 50 миллионов статей, новости и другие материалы из интернета, а также оцифрованные книги. Это невероятный объем слов, текстов и данных, поэтому машине-писателю уже сейчас не составляет большого труда скомпилировать, например, новость или журналистский материал, который люди примут за написанный человеком.
Прежним моделям, однако, требовался ручной ввод некоторых данных, относящихся к теме текста, а значит, итоговый текст не был в полной мере машинным. Модель GPT-2 значительно лучше, чем прежние модели, справляется с такими языковыми задачами, как ответы на вопросы, понимание прочитанного, суммирование и машинный перевод. Она самостоятельно ищет относящиеся к теме материалы, анализирует их, если нужно — переводит, ставит сама перед собой новые языковые задачи и так далее. Более того, через социальные сети GPT-2 выявляет именно те факты и темы, которые гарантированно вызовут интерес читателей, и может проверить качество текстов.
OpenAI базируется в Сан-Франциско и основано известными предпринимателями Илоном Маском и Сэмом Альтманом. Маск не раз предупреждал об опасностях, которыми чревато бесконтрольное развитие технологий ИИ, вот и в этот раз лаборатория выпустила предостережение. В нем говорится, что полная версия модели GPT-2 не будет доступна разработчикам из опасений, что те смогут применить ее в дурных целях, например, для создания фейковых новостей, комментариев на форумах или отзывов в интернет-магазинах — их будет невозможно отличить от настоящих.
Надо сказать, примерно в то же самое время искусственный интеллект научился создавать правдоподобные фотографии людей, не существующих в реальности. Фейковость фото сможет распознать другая машина, но будут разработаны алгоритмы, которые обманут и ее, то есть началась гонка искусственных разумов, и человек должен будет верить не своим глазам, а их заключению.
Разумеется, очень скоро и другие разработчики смогут достичь того же уровня, что и OpenAI. И это напрямую касается не только журналистики, а и большой литературы: ведь модель GPT-2 уже сегодня вполне может написать если не оригинальное литературное произведение, то сиквел, например, «Унесенных ветром» или очередной роман Дарьи Донцовой.
Телепродюсеры все время жалуются на качество сценариев сериалов. Как правило, в таких проектах нужно выдать десятки серий за несколько недель, не забыв ни одного из героев, не запутавшись в их высоких отношениях и каждые две минуты устраивая захватывающий поворот сюжета. Нужно сделать так, чтобы сериал как две капли воды был похож на хорошо продаваемый аналог и предыдущие опробованные клише, но при этом все-таки отличался. Не удивительно, что авторы сатанеют и либо лепят халтуру, либо бегут от продюсеров куда глаза глядят. Теперь и эта проблема решена: подключайте к работе GPT-2, и он напишет вам сто серий за два часа, учитывая все запросы, а если захотите продолжение, назавтра пришлет еще десять сезонов.
ПОДХОДЫ К ПОНИМАНИЮ ЕСТЕСТВЕННОГО ЯЗЫКА
Хотя GPT-2 удалось серьезно продвинуться по сравнению с другими языковыми моделями, методика, которую использовали разработчики, не нова. Профессор информатики Стэнфордского университета Перси Лян признает, что прорыв удалось совершить не из-за революционных решений, а прежде всего благодаря большому массиву данных, примененных в обучении нейросети.
Среди прочих, перед GPT-2 ставилась задача понимания естественного языка —того, что называется NLP (natural-language processing). Это необходимо, например, в работе чатботов и виртуальных помощников. Но при всех своих успехах нейросеть все еще не понимает, что пишет. В компьютерном зрении есть подобная проблема: машина может создать реалистичную картинку в хорошем разрешении, при этом она не будет понимать, что на картинке.
Понимание и обработка естественного языка и является главной целью создания подобных языковых моделей. Развитие NLP сейчас определяется четырьмя основными подходами. Каждый из них имеет дело с определенным пониманием языка, если хотите, его философией.
Для обучения модели GPT-2 использовался самый простой подход из этих четырех, известный как статистическая, или распределительная семантика.
Мы узнаем значение незнакомых слов по тому, как они используются в языке. Если бы мы не понимали, что значит «береза», но видели бы, что оно используется примерно в тех же сочетаниях и контекстах, как «сосна», мы бы поняли, что «береза» — это, скорей всего, дерево. Нейросеть найдет, что береза и сосна растут, что есть березовые и сосновые поленья и так далее. Береза и сосна близки по значению. Но вот, допустим, волк не растет, волчьих поленьев тоже нет, поэтому значение слова «волк» далеко от «березы».
Алгоритмы, которые подсчитывают частоту употребления слова в тех или иных сочетаниях и находят в них закономерности, позволяют создать шаблоны словосочетаний, которые потом можно применить для создания предложений. Именно эта модель, кстати, используется для автоматической подсказки, когда вы пишете сообщение в смартфоне. Этот подход сейчас господствует и он развивается. Например, некоторые исследователи работают не со словами, а с последовательностями символов, и их модели могут запоминать сокращения, сленг и все то, что не отражено в словарях. Этот подход позволяет работать и с языками, в которых между словами нет четких границ.