Алексей Калугин – «Если», 2016 № 03 (страница 42)
Ведущий 1 (B1): Здравствуйте, наши дорогие любители винтажа, антиквариата и прочего бесполезного, но интересного старого хлама! В эфире Radio Free Jupiter с рубрикой «Лавка древностей». Сегодня мы, как и обычно по пятницам, познакомим вас с очаровательным приветом из прошлого. На этот раз мы раскопали в одной из заброшенных библиотек — кто-нибудь вообще еще помнит, что это такое?.. — забавную книжицу, которая называется «Нужны ли мы нам?» и которая посвящена ни много ни мало будущему роботов.
Ведущий 2 (В2): То есть буквально-таки нашему с вами прошлому и — совсем немного — настоящему… [
В1: …Видимо, такое заумное название для своей книги авторы выбрали, чтобы показать: они серьезно допускают возможность вымирания людей за полной ненадобностью.
В2: Ну, сейчас их об этом уже не спросишь. Книга была опубликована в самом начале 2020-х, и вряд ли кто-то из ее авторов смог дожить до бума геропротекторных технологий. Но если кто-то из них еще жив, то он всегда может подключиться к нашему интерактивному каналу и высказать все, что думает по поводу наших комментариев, нашей радиостанции и мира в целом.
В1: О, надо же, нам уже начали поступать сообщения от слушателей. Только это не авторы «Нужны ли мы нам?». Номером один идет вопрос «Какого
В2: Судя по криптоидентификатору, этим интересуются коллеги с конкурирующей станции Radio Free Mars. Спрашивали — отвечаем. Коллеги! Вы крутите свои треки для дальнобойщиков? Вот и крутите себе дальше. Мы такое же
В1: Звучит знакомо, да? Наверняка вы следите за текущей предвыборной кампанией на Марсе, так там ровно то же самое происходит. Расчлененка и неконтролируемый угар полит-технологического произвола. Чем мы хуже? Они же всю сеть замусорили. Хулиганы, тунеядцы…
В2: Лично мне больше всего понравился раздел про историю «военных» роботов и ИскИнов. Оказывается, в самом начале XXI века многие умники дискутировали по поводу того, можно ли применять роботов и прочие автоматизированные системы в военных действиях. Поскольку умников пищевым концентратом не корми, а дай порассуждать на тему «за» и «против». Так вот, в пользу применения роботов озвучивали несколько доводов. Во-первых, возможность снижения потерь среди гражданского населения, поскольку роботы не способны к эмоциональным реакциям.
В1: Очень, очень смешно. Это они не видели, какие рожи корчат роботы-официантки, когда не оставляешь им на чай пару-тройку ядерных батареек. Я уже не говорю про… [
В апреле 2015 года международная правозащитная организация Human Rights Watch совместно с Гарвардской юридической школой опубликовала доклад «Mind the Gap. The Lack of Accountability for Killer Robots», посвященный проблемам ответственности, возникающим при применении полностью автономных боевых систем. Военные роботы, способные выбирать и поражать цели без участия человека, смогут совершать действия, которые, будь они совершены человеком, расценивались бы как военные преступления. При этом люди-операторы или командиры подразделений, скорее всего, не будут привлечены к ответственности, в случаях, когда они не могли предусмотреть или остановить неправомерную атаку со стороны автономного робота. Авторы призывают к полному официальному запрету разработки, производства и использования подобных систем на международном и национальном уровне.
Очередное обсуждение будущего боевых роботов состоялось в апреле 2016 года в рамках специального совещания ООН в Женеве. Участники рассмотрели этические, юридические, технические и другие аспекты применения полностью автономных систем вооружения. Международная правозащитная организация Human Rights Watch совместно с Гарвардской юридической школой подготовила еще один доклад о проблемах контроля над роботами-убийцами, призывающий к запрету автономных систем вооружения.
В2: Полегче! Один ты уже раскурочил, а бюджет у нас не резиновый. И напомню, рубрика называется «Лавка древностей». Считай, что это декорация. Итак, во-вторых. Ученые говорили про необходимость «быть готовыми», поскольку террористы и страны — потенциальные противники все равно могут использовать боевых роботов.
В1: Это просто без комментариев. Отличный довод любого генерала любой эпохи. Что-то еще они придумали, умники эти?
В2: Ну, третьим любимым аргументом яйцеголовых было то, что запрет на использование роботов для ведения боевых действий не решит реальную проблему, то есть — не ликвидирует желание человека использовать технологии «во зло». Кто бы спорил. Доводов против применения военных роботов, кстати, было гораздо больше, начиная с того, что все не очень понимали, кого назначать виноватым, если робот по ошибке порешит пару сотен человек. И конечно, была еще масса туманных соображений этического свойства. В самом начале века умники даже несколько петиций подписывали, предупреждали неразумное человечество об опасностях «военного» искусственного интеллекта.
В1: Толку-то. Петиции, шметиции. Ясное же дело, что на реальные решения это никак не повлияло. И войну на Титане мы все равно получили. Сначала вояки потратили деньги честных налогоплательщиков на создание полностью автоматизированного полигона для отработки разных видов… э-э-э… всего, а потом им пришлось уничтожать взбесившуюся «безлюдную систему» с помощью тех самых человеческих ресурсов, которые она должна была заменить. Потому что система, не будь дура, легко и непринужденно перехватывала управление любой техникой, где была хоть какая-то электроника. А сейчас, как мы хорошо знаем, правительство Марса и кое-какие крупные корпорации обсуждают создание на Титане парка аттракционов «Или быстрый — или мертвый» для любителей острых ощущений, чтобы хоть как-то снизить уровень уличной преступности на базовых планетах. Понятное дело, что это просто
В2: Ну, справедливости ради надо сказать, что как минимум прогнозы про ужасы «военного» искусственного интеллекта таки сбылись. Продолжаем разговор. Вот, кстати, поступил по интерканалу еще один вопрос. Для разнообразия он даже связан с темой нашей передачи. С роботами то есть. «Снятся ли электроовцам андроиды?» Видимо, интересуется либо электроовца, сомневающаяся в том, что она электроовца, либо андроид, который очень хочет, чтобы его видела во сне хотя бы… хм… овца.
В1: Н-да, в школе этот человек — или ИскИн? — явно не учился. Академиев не кончали, бетховенов не читали, о конфигурации нейросетей ничего не знаем. Но раз уж вопрос поступил, с уверенностью отвечаем: да, снятся! Принесло ли это знание вам счастье?
В2: Давай-ка без философии. Вернемся лучше к нашим овцам. В смысле — к баранам. В смысле… Ну, все поняли. «Нужны ли мы нам?».
В1: Оки-доки. Тебе ближе война, а меня вот порадовала часть, в которой авторы рассуждают про грядущее вытеснение людей роботами и ужасы безработицы. Сейчас все эти страхи выглядят немного наивно, но авторам книги, амигос, явно было не до смеха. Потому что ровно тогда, в 2020-х, когда они ваяли свои прогнозы, в мире происходило много всего интересного. Бунты в Китае и Индии, погромы, партии противников роботизации, робофобия…
В2: А ведь начиналось все очень невинно, с китайской программы «Made in China-2025» и каких-то локальных инициатив. Впереди планеты всей, если я правильно помню, была провинция Гуандун. Та самая, где когда-то был город Гуанджоу и на месте которой нынче красуется лунный пейзаж. Бунты-то подавляли как могли. А акции протеста работников сетей быстрого питания в Америке? А ритуальные самосожжения любителей го перед офисами производителей ИскИнов — после очередного юбилейного тысячного проигрыша человека машине? Сколько бензина извели по всему миру, подумать страшно. Или вот секты, которые считали дронов предвестниками Антихриста?.. Так что панические настроения авторам книги вполне можно простить.
Согласно докладу Всемирного экономического форума «The Future of Jobs», подготовленному в январе 2016 года, за счет развития технологий число рабочих мест в мире к 2020 году может сократиться на 5,1 млн.
В1: Самое увлекательное все равно началось тогда, когда контора под пафосным названием OpenAI году этак в 2030-м выкинула на просторы всемирной сети первого ИскИна класса Open Source. Я так понимаю, ребята просто хотели облагодетельствовать человечество. Во всяком случае, потом, уже на международном трибунале, они говорили именно об этом. Тогда мало кто понимал, что общедоступный искусственный интеллект куда опаснее невинного биохакинга в гараже. Да, после первых масштабных инцидентов для ИскИнов тут же ввели режим нераспространения вроде того, который на заре цивилизованных времен был придуман для ядерного оружия. Но было уже малость поздно.