реклама
Бургер менюБургер меню

Юрий Батурин – Право и политика в компьютерном круге (страница 16)

18

Вспоминается поэтическое описание воздушного боя прошедшей войны:

Я — ... истребитель, мотор мой звенит. Небо — моя обитель. А тот, который во мне сидит, считает, что он — истребитель. . . . . . . . . . . . . . . . . Что делает он — ведь сейчас будет взрыв!.. Но мне не гореть на песке,— запреты и скорости все перекрыв, я выхожу из пике25.

Из литературного приема, называемого «остранением», ситуация стала реальностью, чуть ли не техническим описанием работы авиационных систем. Пилот истребителя, поднимающегося в небо, — хозяин своего самолета лишь в той мере, в какой это позволяет ему компьютер. Летчик не имеет возможности идти на риск, не совместимый с летными характеристиками полета. Более того, можно сделать так, чтобы самолет не подчинялся приказам, противоречащим командам компьютера. ЭВМ способна отключить ручное управление и также автоматически привести ракеты в боевую готовность.

Пока что компьютеры не способны думать, рассуждать или читать мысли. Но в проекте «Стратегическая информатика» речь идет о компьютерах пятого поколения, и по заказу Пентагона фирма «Макдоннел-Дуглас» уже работает над компьютерной системой, которая будет сканировать волны, исходящие от мозга пилота, следить за пульсом, сокращениями сердечной мышцы, другими жизненно важными функциями его организма и на основании этого определять боеспособность пилота, выдавая ему ровно столько информации, сколько он в состоянии воспринять в данный момент.

Управление перспективного планирования создает и так называемого «помощника пилота» — робота, помогающего летчикам в условиях воздушного боя выполнять операции, которые сейчас делаются вручную, например обходные маневры с целью уйти от ракет противника. Робот будет выполнять голосовые команды пилота и отвечать ему тоже в речевой форме26.

В осуществлении «стратегической компьютерной инициативы» способность систем сбора и обработки данных (военные называют их «три К» или «К3» («К» в кубе) в соответствии с их тройной функцией: командование, контроль, коммуникации27) следить в реальном масштабе времени за развертыванием конфликтов на различных театрах военных действий с тем, чтобы сохранить контроль над участвующими в боях воинскими частями, превратилась в важнейший боевой фактор. Но системы «три К», задуманные для установления строгого контроля, страдают врожденными пороками: во-первых, они исключительно уязвимы для воздействия электронными импульсами; во-вторых, регулярно «обнаруживая» ложные атаки, они неоднократно приводили к объявлению боевой готовности. Причиной последнего может оказаться как дефект одного из электронных компонентов, несовершенство математического обеспечения, неправильное истолкование природного явления (перелет стаи диких гусей был принят однажды за «советскую ракетную атаку»), так и ошибка оператора, вызывающая немедленную реакцию системы. Примеров этому немало.

Так, крупный скандал разразился в Пентагоне в 1984 г., когда обнаружилось, что миллионы микрочипов компании «Тексас инструментс», широко используемых в современных системах оружия, не отвечают элементарным требованиям надежности. Компания просто-напросто не проводила многих существенно важных испытаний и проверок чипов перед их монтажом в системах боевой техники. Такие неисправные чипы в радарах, системах раннего обнаружения (в том числе и спутниковых) оказываются ответственными за ложные тревоги. Случай с «Тексас инструментс» — отнюдь не уникальное событие. В том же 1984 г. стало известно, что Национальная корпорация полупроводниковой техники фальсифицировала результаты испытаний кремниевых чипов, предназначенных для военных систем28. Ради доходов возможностью того, что из-за неисправных электронных цепей может погибнуть человеческая цивилизация, просто пренебрегли.

Другой пример. 3 и 6 июня 1980 г. компьютер в штаб-квартире командования противовоздушной обороны Северной Америки (НОРАД)29 выдал ложные сигналы о якобы начавшемся советском нападении. В результате были приведены в повышенную боевую готовность стратегические бомбардировщики с ядерным оружием на борту30. А причиной послужил маленький, размером с монету, кремниевый элемент. Руководящий деятель лейбористской партии Великобритании Т. Дэлиэлл заявил в этой связи: «Тот факт, что дважды за четыре дня ошибка компьютера приводила к запуску американской военной машины, должен стать проблемой номер один в повестке дня каждого правительства и каждой политической партии мира»31.

В конце 70-х — начале 80-х годов американские эксперты были обеспокоены большим числом сбоев в пентагоновской компьютерной глобальной системе командования и управления (ВИМЕКС). Дж. Брэдли, бывший главный инженер-испытатель ее компьютерной сети, предупреждал, что эта система не настолько надежна, чтобы военное командование могло полагаться на нее. По его оценкам, прессе становится известен не более чем один из десяти случаев ложных тревог32.

ВИМЕКС, которая к началу 80-х годов устарела уже на десятилетие, неоднократно интерпретировала гряду облаков, стаю гусей и тому подобные явления как ракетную атаку. По некоторым оценкам, она отказывала через каждые 35 минут. Два компьютера ВИМЕКС были включены в систему НОРАД и начали работать в ее штаб-квартире в Колорадо в сентябре 1979 г., и в течение 9 месяцев американские ядерные силы приводились в готовность по ложной тревоге не менее трех раз. При этом в воздух поднималась стратегическая авиация и начиналась подготовка к запуску ракет. В ноябре 1979 г. НОРАД подняла тревогу из-за, того, что по ошибке в память компьютера была введена модель учебной военной игры. В результате с авиабаз США над Миссури, Орегоном и Британской Колумбией взлетели истребители-перехватчики с целью уничтожить «вторгшиеся советские бомбардировщики». К июню 1980 г. произошло еще несколько подобных случаев: причиной «советской ракетной атаки» послужили бракованные чипы33. В докладе, опубликованном сенатской комиссией США по делам вооруженных сил в октябре 1980 г., указывалось, что лишь за полтора года по причине различных технических неисправностей «командование противовоздушной обороны Северной Америки (НОРАД) подало в общей сложности 151 ложный сигнал о начале „ядерной атаки” на США»34. В проведенной после этого контрольной проверке ВИМЕКС в ноябре 1980 г. компьютеры в течение 12 часов работали со сбоями.

Сложность математического обеспечения создает потенциальную угрозу непредсказуемого поведения военных систем. Пентагон сталкивается с трудностями, даже когда надо установить оружие со сравнительно простой программой. Важный недостаток зенитного оружия «Сарджент Йорк», от которого было решено отказаться, заключается в том, что подрядчики не могли составить достаточно изощренную программу слежения, чтобы поражать самолеты, выполняющие маневры в попытке уйти от огня.

Пентагон потратил в 1985 г. 11 млрд. долларов на военные компьютерные системы, из них 8,5 млрд. — на математическое обеспечение34а. Ассоциация электронной промышленности США полагает, что к 1990 г. эта сумма более чем удвоится и на нее будет приходиться приблизительно 20% всех расходов Пентагона на оружие. В погрешностях математического обеспечения кроется не меньшая, чем в отказах электронных компонентов, опасность. Между тем все его слабости и допущенные ошибки выявить при предварительных испытаниях невозможно.

Оружие часто приходится использовать в непредсказуемых или неожиданных ситуациях. В отличие ют коммерческих данных, которые программисты закладывают в компьютер в организованной, аккуратно отпечатанной форме, компьютерные команды для управления оружием должны даваться датчиками, в частности радиолокаторами или электронно-оптическими приборами. Данные с датчиков поступают в виде миллионов «сырых» цифр в секунду. Компьютерная программа должна проанализировать эти данные и решить, означают ли они, скажем, вражеский танк или дружественный «фольксваген». К тому же все это должно делаться в реальном масштабе времени, т. е. практически молниеносно. У экспериментального американского истребителя «X-29» конструкция крыльев аэродинамически настолько неустойчива, что три бортовых компьютера должны 40 раз в секунду корректировать крен и тангаж самолета. Если сбой произойдет в программах трех компьютеров одновременно, самолет просто в воздухе развалится на куски35. Можно себе представить, как отреагируют «не догадывающиеся» об ошибках компьютеров другие автоматизированные системы управления оружием.

Проблема состоит также в том, что ввести в такие системы человека как «сдерживающий» и контролирующий элемент уже невозможно. В конце 70-х годов американская армия поставила на вооружение огромную систему связи под названием «БЕТА» (использование в боевых условиях и захват целей). БЕТА должна была собирать и обрабатывать данные со многих датчиков и выдавать на дисплеи результаты, которые должны были помочь боевым командирам принимать решения. «Эта система делала именно то, что армия требовала от нее, — говорит Л. Маклафлин, ведающий технологией проектирования в компании-подрядчике. — Неприятность была в том, что никто не мог пользоваться ею. Она выдавала слишком много информации»36. Известно, что во время вьетнамской войны с компьютерами работали американские офицеры, «не имевшие ни малейшего представления о том, что заложено в их программы и какие цели для обстрела они выбирают»37. Действительно, компьютеры, призванные контролировать тактические ситуации, обладают столь сложным математическим обеспечением (не говоря уже о секретности), что обычным военнослужащим просто не под силу разобраться в нем. Если перенести этот вывод на стратегический уровень, обнаруживается весь ужас ситуации. Мало-помалу все это превращает человека во второстепенный вспомогательный винтик.