Новый цифровой мир.

* * *

Можно только приветствовать прогнозируемое снижение жертв среди мирного населения и материального ущерба, а также риска ранений и гибели военнослужащих, однако переход к полностью автоматизированному ведению боевых действий принесет новые проблемы. Главная из них – обеспечение кибербезопасности оборудования и информационных систем. Обмен данными между всеми устройствами, наземными роботами, беспилотными летательными аппаратами и их командным пунктом управления, где находятся люди, должен быть быстрым и безопасным. Необходимо обеспечить качественную инфраструктуру или хорошую связь между боевыми частями и их базами. Вот почему армия обычно создает собственные коммуникационные сети, а не полагается на имеющиеся. Пока роботы, действующие на поле боя, не обзаведутся автономным искусственным интеллектом, помехи или разрыв связи могут превратить эти машины в бесполезную груду железа, к тому же еще и опасную, ведь захват вражеского робота поможет получить доступ к секретной технологии. И не только к технологии: это позволит изучить его программное обеспечение, использованные инженерные решения, а также секретные данные вроде координат расположения вражеских боевых частей. (Трудно представить себе, что государства откажутся от соблазна провести кампанию дезинформации и сознательно посадить на чужой территории – или позволить противнику захватить – беспилотник-приманку с записанной в нем ложной информацией и собранный с использованием вводящих в заблуждение компонентов.) В войнах с участием роботов обе противоборствующие стороны для пресечения вражеской активности будут использовать кибератаки, применяя или спуфинг (то есть выдавая себя за авторизованного участника сети), или ложные цели, чтобы запутать датчики и ослабить боевые порядки противника. Конечно, производители попытаются встроить в свои устройства отказоустойчивые механизмы для снижения вреда от таких атак, но сделать роботов «пуленепробиваемыми» для любых технологических хитростей будет очень трудно.

Военнослужащие и создатели роботов столкнутся с ошибками, допущенными при разработке. Уязвимости и ошибки встречаются в любой сети, и часто единственный способ их исправить – это дождаться, когда о них узнают хакеры или независимые специалисты по компьютерной безопасности. Разобраться в программах, которые необходимы для работы столь сложных устройств, крайне нелегко: там миллионы и миллионы строк кода, и вероятность ошибок очень высока. Даже когда разработчики знают об уязвимых местах, их не так просто устранить. Считается, что о бреши в защите системы GРS, которой воспользовались иранцы, напав на американский беспилотник и посадив его, Пентагону было известно с боснийской кампании 1990-х годов. В 2008 году в распоряжении спецслужб США впервые оказался изъятый у шиитских повстанцев в Ираке ноутбук с записями видеокадров, снятых американскими беспилотными летательными аппаратами, которые иракцам удалось перехватить, просто направив на него спутниковую тарелку и использовав дешевую программу SкуGrаbbеr, которую можно купить в сети за $26. Предназначается она для пиратского скачивания фильмов и музыки. Линии обмена данными между беспилотником и его пунктом управления тогда не шифровались.

В ближайшем будущем управлять этими устройствами будут люди и ошибок избежать не удастся. Если человек с его хрупкой психикой оказывается в условиях боевых действий, в ситуации непредсказуемости, это может привести к посттравматическому стрессу, тяжелым эмоциональным расстройствам и психическим срывам. Пока люди будут участвовать в войнах, будут и ошибки.

Устройства, способные воевать без участия человека, не смогут заменить людей ни непосредственно в бою, ни в центре принятия решений до тех пор, пока искусственный интеллект не заменит человеческий мозг полностью. Ошибки совершают даже самые умные машины. Как отмечает Питер Сингер, когда во время Первой мировой войны на полях сражений появился танк, он казался непобедимым, пока кто-то не придумал противотанковый ров. Бывший министр обороны Афганистана Абдул Рахим Вардак, с которым мы познакомились в Кабуле незадолго до его отставки, с улыбкой рассказывал нам, как в 1980-е годы он вместе с другими моджахедами боролся с советскими танками, замазывая грязью их смотровые щели и сооружая покрытые ветками и листвой ямы-ловушки вроде тех, которые за десять лет до этого вьетконговцы использовали против американских солдат. Сингер проводит более современные параллели: «Наземные роботы, которых наши солдаты используют в Ираке и Афганистане, поразительно высокотехнологичны, однако повстанцы поняли, что они могут бороться с ними с помощью простых ловушек, всего лишь выкапывая глубокие ямы, в которые те падают. Они даже подобрали определенный угол наклона стен, чтобы роботы не выбирались обратно». Интеллект этих роботов ограничен, и, пока они проходят полевые испытания, их операторы и разработчики будут постоянно сталкиваться с вражескими контрмерами, которые не смогли предугадать. Им придется постоянно совершенствовать свои продукты. Подобные асимметричные ответы противника окажутся непреодолимой трудностью даже для самых совершенных технологий.

Однако человеку мало одних лишь навыков решения задач. Есть уникальные человеческие черты, важные в военных условиях, которые даже определить трудно, не то что наделить ими роботов: это свое мнение, эмпатия и доверие. Что-то наверняка будет утрачено, если роботы возьмут на себя функции солдат. В ходе наших бесед с военнослужащими сил специального назначения все они, ссылаясь на свой боевой опыт, подчеркивали чрезвычайную важность доверия к однополчанам и чувства братства. Некоторые из них учились вместе и многие годы воевали бок о бок, изучив привычки и почти без слов понимая действия и ход мыслей друг друга. По их словам, они могут общаться при помощи взгляда. Смогут ли роботы когда-нибудь перенять человеческие способности считывать невербальные подсказки?

Способен ли робот на смелый поступок? Может ли пожертвовать собой? Может ли робот, обученный обнаруживать и уничтожать цель, иметь какие-то понятия об этике или сдержанности? Сможет ли он когда-нибудь отличать ребенка от невысокого взрослого? Если робот застрелит мирного жителя, кого в этом винить? Представьте, что лицом к лицу столкнулись вооруженный наземный робот и шестилетний мальчик с аэрозольным баллончиком краски, которого послали повстанцы. Как бы ни действовал робот, автономно или под управлением человека, у него есть две возможности: выстрелить в невооруженного ребенка или оказаться выведенным из строя, поскольку мальчишка просто ослепит его, распылив краску на высокотехнологичные камеры и датчики. Как бы поступили вы, управляя роботом, задает вопрос Сингер. Мы не можем отдавать роботов под трибунал или как-то еще наказывать их. Еще многие годы доминирующую роль в военных операциях будут играть люди, несмотря на то что роботы становятся все более разумными и все лучше интегрируются в «человеческие» боевые подразделения.