Источник: qz.com
Противоречивый ATLAS
В начале прошлого года военное ведомств Соединенных Штатов всполошило мир новостью о разработке системы ATLAS (Advanced Targeting and Lethality Aided System), призванной перевести боевые действия на новый уровень автоматизации. Инициатива вызвала неоднозначную реакцию у простых обывателей и просвещённых милитари-экспертов. Во многом вина была на разработчиках (военный C5ISR-центр и Центр вооружений Министерства обороны), которые ради благозвучной аббревиатуры ATLAS включили в наименование термины «летальность» и «усовершенствованное целеуказание». Напуганные историями о восставших роботах, американцы подвергли критике армейское начинание, дескать, оно противоречит этике ведения войны. В частности, многие ссылались на Директиву 3000.09 Пентагона, в которой запрещается передавать право открытия огня автоматизированным система. Интеграция искусственного интеллекта и машинного обучения в наземную технику, по мнению протестующих, может привести к необдуманным жертвам среди гражданского населения и дружественных войск. Среди критиков были вполне респектабельные ученые – к примеру, Стюарт Рассел, профессор информатики в Калифорнийском университете в Беркли.
Классические танки устарели и требует скорейшей автоматизации, по мнению военных США. Источник: htstatic.imgsmail.ru
Разработчики вполне резонно объяснили, что ATLAS не имеет никакого отношения к гипотетическим «роботам-убийцам», о которых человечество грезит еще с первого «Терминатора». В основе системы лежат алгоритмы поиска цели с помощью различных сенсорных систем, отбор наиболее важных и информирование об этом оператора. Сейчас в США проходят испытания бронетранспортера M113 с интегрированной системой ATLAS. Оператору орудия алгоритмы искусственного интеллекта выводят на экран не только наиболее опасные цели, но и рекомендуют тип боеприпаса и даже количество выстрелов для гарантированного поражения. Как утверждают разработчики, окончательное решение о поражении цели остается за стрелком, и именно он несет ответственность за результат. Основная задача ATLAS в бронетанковом исполнении заключается в увеличении скорости отклика на потенциальную угрозу – в среднем, танк (БМП или БТР) открывает огонь по цели с автоматическим помощником в три раза быстрее. Естественно, бронемашина может эффективнее работать с групповыми целями. В этом случае искусственный интеллект оперативно проводит селекцию целей в порядке танкоопасности, самостоятельно наводит орудие и рекомендуют тип боеприпаса. С начала августа на Абердинском полигоне проходят испытания различных типов бронетехники с интегрированными системами ATLAS. По итогам работы будет принято решение о войсковых испытаниях и даже о принятии на вооружение подобного оружия.
Тестирование компонентов ATLAS на Абердинском полигоне. На фото — десантный отсек M113. Источник: c4isrnet.com
Танки сейчас являются одним из самых консервативных объектов на поле боя. Многие из них принципиально не улучшались десятилетиями, по уровню технического развития оставаясь в 70-80-х годах прошлого столетия. Нередко такая инертность связана с широким распространением танков в отдельных странах. Для того, чтобы серьезно модернизировать многотысячную бронеармию, требуются громадные ресурсы. А вот средства противодействия танкам развиваются семимильными шагами. Отличным примером может стать текущий конфликт в Нагорном Карабахе, когда турецкие и израильские беспилотники крайне эффективно действуют против армянских танков. Если абстрагироваться от людских потерь, подсчет соотношения «цена/эффективность» подобных противотанковых средств делает их просто королями поля боя. Конечно, ATLAS не защитит от угрозы с воздуха, но может стать неплохим средством для раннего предупреждения о танкоопасных целях типа расчета ПТРК или об одиночных гранатометчиках.
Именно такие потенциальные цели рассматривают авторы концепции Project Convergence. Источник: defensenews.com
Систему ATLAS Пентагон рассматривает не в качестве единичной военной структуры, а в части большого Project Convergence. Эта инициатива должна перевести осведомленность войск на новый уровень. За счет машинного обучения, искусственного интеллекта и беспрецедентного насыщения поля боя беспилотниками американцы надеются серьезно повысить боеспособность подразделений. Ключевая идея не нова – соединить все объекты на поле боя общей информационной структурой и оцифровать окружающую действительность. Пока ATLAS полноценно не включен в Project Convergence по причине отсутствия навыков обмена данными с «соседями», но в перспективе и искусственные мозги танка станут общим достоянием. К слову, в рекламном ролике проекта однозначными военными целями обозначены Китай и Россия.
Нет доверия электронике
У американских войск уже есть негативный опыт общения с вооруженными роботизированными системами. В 2007 году в Ирак были отправлены три малогабаритных гусеничных платформы SWORDS (сокращение от Special Weapons Observation Reconnaissance Detection System), вооруженные пулеметами M249. И хотя они не являлись полностью автономными машинами, но успели напугать солдат своими периодическими хаотичными движениями стволами пулеметов в ходе патрулирования улиц Багдада. Пентагону это показалось признаком непредсказуемости, и гусеничных пулеметчиков потихоньку отправили восвояси. В 2012 году появилась директива, в соответствии с которой автоматизированные и дистанционно-управляемые оружейные системы не должны самостоятельно стрелять. Формально, ATLAS разработан полностью в рамках данного положения, но вопросов к инновации меньше не становится. Некоторые эксперты (в частности, Майкл С. Горовиц, доцент политологии Университета Пенсильвании) обвиняют новинку в чрезмерном упрощении процесса поражения цели. Фактически, такой уровень автоматизации поиска и целеуказания превращает для наводчика бой в обычную игру типа World of Tanks. В системе наведения ATLAS приоритетная цель подсвечивается красным, звучит тревожный сигнал и техника как может стимулирует человека открыть огонь. В экстремальных условиях боя времени на принятия решения о стрельбе и так мало, а тут еще и «умный робот» подзуживает. В итоге критически оценить ситуацию у бойца просто нет времени, и он, не разобравшись, открывает огонь. О том, насколько ATLAS корректно провел селекцию целей, оценивать приходится уже после стрельбы. В какой степени этот подход этичен и соответствует ли он пресловутой американской директиве? Microsoft, кстати, за подобную систему нашлемного целеуказания для военных уже успел попасть под общественное осуждение, вплоть до пользовательского бойкота. В США относительно роботизации систем обнаружения и наведения ведутся споры уже много лет. В качестве примера критики приводят примеры ошибок системы автопилотирования на дорогах общего пользования, которые уже привели к жертвам. Если даже проехав миллионы километров, автопилоты так и не стали на 100% надежными, то что говорить о совсем свеженьком ATLAS, который может подтолкнуть танкистов выстрелить по невинному человеку 120-мм снарядом. Современные войны сейчас настолько кровопролитны именно потому, что военные получили возможность убивать дистанционно, спрятавшись за надежной преградой. Пример упоминаемого Нагорного Карабаха еще раз подтверждает эту истину. Если же бойца еще и лишить возможности критически оценивать параметры цели (именно к этому и ведет ATLAS), то жертв может стать гораздо больше, а вину на убийство можно уже частично переложить на машину.
И наконец, главным аргументом против систем типа ATLAS у пацифистски настроенных комментаторов стало фактическое отсутствие запрета на открытие автоматического огня. Сейчас только этические требования Пентагона (которые также имеют массу оговорок) запрещают полностью автоматизировать процесс убийства. С внедрением ATLAS технических преград для этого не останется совсем. Смогут ли в армии США отказаться от столь многообещающей возможности еще больше ускорить время реагирования на угрозу и вывести своих бойцов из-под удара?
Источник: topwar.ru