Станет ли дрон гуманнее человека, применяя «негуманное» оружие? Кто отвечает за решения о применении смертоносных автономных систем (САС)?

отметили
15
человек
в архиве
Станет ли дрон гуманнее человека, применяя «негуманное» оружие? Кто отвечает за решения о применении смертоносных автономных систем (САС)?

В марте 2019 года на заседании Группы правительственных экспертов (ГПЭ) государств – участников Конвенции о «негуманном» оружии (КНО) по смертоносным автономным системам вооружений (САС) российская делегация представила свое видение проблемы, чем вызвала в зале легких шок.

«Российская Федерация исходит из того, что потенциальные САС могут демонстрировать большую эффективность, чем человек-оператор при решении поставленных задач, сокращать вероятность ошибок. В частности, такие системы способны существенно снизить негативные последствия применения оружия в контексте МГП, связанные с ошибками оператора, его психическим и физиологическим состоянием, нравственными, религиозными, моральными установками. Применение высокоавтоматизированных технологий может обеспечить повышение точности наведения средств поражения, направленных против военных объектов, способствовать сокращению вероятности непреднамеренного нанесения ударов по гражданскому населению и гражданским объектам».

Смертоносные автоматы и беспилотные аппараты

Дело в том, что с декабря 2016 года эта конференция обсуждает возможность полного запрета САС. С такой инициативой выступили не только видные мировые общественные и религиозные деятели, но несколько известных международных неправительственных организаций и даже ряд национальных делегаций. Кампания против «роботов-убийц» Stop Killer Robots борется за полный запрет с 2013 года. Ватикан неоднократно призывал «не допустить, чтобы смертоносные автономные системы стали реальностью завтрашней войны». У мировой общественности к боевым роботам много претензий: они не смогут соблюдать международное гуманитарное право и права человека, их использование противоречит нормам человеческой морали, непонятно, кто будет нести ответственность за их преступления.

Несложно понять, с каким удивлением борцы против роботов-убийц услышали: «Действующие системы военного назначения высокой степени автоматизации не следует выделять в «особую» категорию, нуждающуюся в немедленных ограничениях и запретах. Именно такой уровень автоматизации позволяет подобным системам действовать в динамичной боевой обстановке и в различных средах, обеспечивая при этом надлежащую степень избирательности и точности и, как следствие, их соответствие принципам и нормам МГП».

Не все участники конференции обратили внимание на важное замечание. Россия делает различие между высокоавтоматизированными и автономными системами. «Российская Федерация полагает, что предмет обсуждения в ГПЭ по САС должен ограничиваться полностью автономными системами, под которыми мы предлагаем понимать «безэкипажные технические средства, не являющиеся боеприпасами и предназначенные для выполнения боевых и обеспечивающих задач без какого-либо участия оператора». В этой связи выступаем против обсуждения тематики беспилотных летательных аппаратов в контексте САС в рамках КНО, поскольку они представляют собой частный случай высокоавтоматизированных систем и не относятся к САС».

Участники конференции решили, что российская делегация выступает против соглашений по новым вооружениям: «Существующее международное право, включая МГП, содержит ряд важных ограничений, которые полностью распространяются на системы вооружений с высокой степенью автоматизации и не нуждаются в модернизации или адаптации к специфике данных средств».

Россию прочно занесли в список противников запрета САС, в котором также находятся Соединенные Штаты и некоторые их союзники.

Между тем современные войны показывают, что человек уже уступает беспилотным системам в умении соблюдать международное законодательство и законы войны.

Эхо карабахского конфликта

О том, что во время конфликта в Нагорном Карабахе обе стороны совершали военные преступления, говорится в докладах Amnesty International, Halo Trust, Human Rights Watch, а также казахстанского экспертного центра Factcheck.kz. Помимо гибели, по разным данным, от 5 до 10 тыс. военных, гражданские потери в конфликте составили 155 погибших и 571 раненых.

«Во время недавних боев в Нагорном Карабахе военные с обеих сторон вели себя чудовищным образом, демонстрируя полное пренебрежение правилами ведения войны», – заявил директор по исследованиям Amnesty International в Восточной Европе и Центральной Азии Денис Кривошеев. – Власти Азербайджана и Армении должны немедленно провести независимое, беспристрастное расследование и установить всех ответственных в этих преступлениях. Виновные, а также все без исключения командиры, которые отдавали приказы, допускали или потворствовали этим преступлениям, должны быть привлечены к ответственности».

В своих докладах международные неправительственные организации, помимо актов вандализма и издевательств над пленными и телами убитых, «отмечают применения в населенных районах тяжелых вооружений и оружия взрывного действия», в результате которых «сотни жилых домов и ключевых объектов инфраструктуры, таких как больницы и школы, уничтожены или повреждены огнем тяжелой артиллерии и ударами с воздуха, в том числе ракетными». Международный комитет Красного Креста подчеркивает, что «применение оружия взрывного действия с широким радиусом поражения против военных целей в населенных районах может представлять собой нарушение международного гуманитарного права, нормы которого запрещают неизбирательные и несоразмерные нападения».

Amnesty International утверждает, что и Армения, и Азербайджан применяли тяжелое вооружение с широким радиусом действия в густонаселенных гражданских районах. Эксперты из группы кризисного реагирования Amnesty International изучили имеющиеся доказательства, которые, по их мнению, «убедительно свидетельствуют об использовании баллистических ракет и заведомо неприцельных залпов реактивных систем залпового огня (РСЗО), которые привели к гибели, ранениям и широкомасштабному ущербу среди гражданского населения, что является явным нарушением международного гуманитарного права». Азербайджанский город Гянджа неоднократно подвергался артиллерийским обстрелам с армянской стороны. Денис Кривошеев отмечает «свидетельства применения баллистических ракет и других взрывчатых веществ с широким радиусом действия в гражданских районах».

Amnesty International подтвердила факты применения Арменией запрещенных кассетных бомб, а также РСЗО «Смерч» в ходе атаки на азербайджанский город Барда. В частности, эксперты Amnesty International продемонстрировали фрагменты кассетных боеприпасов 9Н235 от ракет российского производства 9M55 «Смерч».

Согласно той же Amnesty International, азербайджанская сторона применила кассетные боеприпасы M095 DPICM по городу Степанакерт, региональной столице Нагорного Карабаха. «Кассетные боеприпасы по своей сути являются неизбирательным оружием, и их применение при любых обстоятельствах запрещено международным гуманитарным правом», – заявила Мари Стратерс, региональный директор Amnesty International по Восточной Европе и Центральной Азии.

Специалисты Halo Trust, организации, которая занимается разминированием в Нагорном Карабахе, также предъявляют доказательства использования неуправляемых снарядов РСЗО «Смерч» и кассетных боеприпасов.

Журналисты «Платформы проверки фактов» выложили в интернет многочисленные фотодоказательства использования Азербайджаном в карабахском городе Гадрут кассетных бомб, выпущенных реактивной системой залпового огня израильского производства LAR-160.

Казахстанская редакция Factcheck.kz изучила фото- и видеосвидетельства обеих сторон и заключила, что во время бомбежки Степанакерта действительно использовалось запрещенное оружие (кассетные снаряды/бомбы) израильского производства, а именно – снаряды, выпущенные с помощью системы залпового огня израильского производства LAR-160. На основе собранных свидетельств Factcheck.kz заключает, что кассетные бомбы использовались Азербайджаном при атаке как минимум Степанакерта и Гадрута.

Сумма нарушений

Наконец, и Human Rights Watch свидетельствует: «По итогам проведенного нами полевого исследования в Степанакерте, административном центре Нагорного Карабаха, были выявлены многочисленные случаи использования азербайджанскими силами заведомо неизбирательных кассетных боеприпасов, реактивных снарядов и других систем вооружений, не позволяющих проводить различие между военными целями и гражданскими объектами». В частности, в докладе HRW говорится:

С 27 сентября по 28 октября азербайджанские силы наносили по Степанакерту удары, временами – с использованием кассетных боеприпасов и РСЗО «Смерч» и «Град», которые не обеспечивают точного наведения на цель.

Азербайджанские силы неоднократно наносили удары по центральному диспетчерскому пункту и подстанции «Арцахэнерго», применяя реактивные снаряды, в том числе с кассетной головной частью, и авиационные боеприпасы.

Ночью 3 октября азербайджанские силы обстреляли район диспетчерского пункта и подстанции «Арцахэнерго» реактивным снарядом РСЗО LAR-160. Наши исследователи осмотрели фрагменты реактивного снаряда примерно в 100 м от здания и многочисленные характерные следы срабатывания суббоеприпасов М095, фрагменты розовых стабилизационных лент и фрагменты самих суббоеприпасов, которые находились преимущественно вдоль улицы, прилегающей к зданию «Арцахэнерго» и подстанции.

На трех видео слышен звук реактивного самолета в небе, на двух, снятых с разных точек, в кадре боеприпас падает на подстанцию под углом 80–90 градусов. Угол падения и присутствие в тот момент в небе самолета соответствует картине сброса авиабомбы. В 13.00 в пределах минуты по району подстанции было нанесено всего около пяти ударов, некоторые попадания пришлись на удалении свыше 400 м от подстанции.

4 октября азербайджанские силы обстреляли место нахождения центрального офиса Карабах Телекома в Степанакерте, включая вышку радиосвязи, из РСЗО LAR-160, рассеяв по близлежащей территории сотни суббоеприпасов М095.

В своих публикациях Human Rights Watch приводит многочисленные документальные свидетельства применения реактивных снарядов LAR-160 с кассетной головной частью, фотографии фрагментов самого реактивного снаряда LAR-160, множество характерных следов разрывов суббоеприпасов М095, фрагментов стабилизирующих лент розового цвета и фрагменты суббоеприпасов.

Суммируя факты, запротоколированные организациями МККК, Amnesty International, Human Rights Watch, Halo Trust и Factcheck.kz, можно отметить использование в конфликте в нарушение международного гуманитарного права следующих вооружений:

— тяжелая артиллерия (122-мм и 152-мм орудия);

— советские 122-мм РСЗО БМ-21 «Град»;

— 300-мм реактивные снаряды 9М55К с кассетной головной частью российской РСЗО 9M58 «Смерч»;

— кассетные боеприпасы M095 DPICM (Dual-Purpose Improved Conventional Munition) для 160-мм РСЗО израильского производства LAR-160;

— авиационные бомбы;

— баллистические ракеты Р-17 ракетного комплекса оперативно-тактического назначения 9К72 «Эльбрус» (SS-1c Scud B).

«Автономный убийца» не оставляет следов

При этом в докладах нет ни одного упоминания использования автономных вооружений в нарушение МГП. В сети можно найти сотни видеосюжетов, фиксирующих удары беспилотников по системам ПВО, бронетехнике и даже живой силе. Однако ни одна из упомянутых организаций не посчитала, что атаки дронов нарушают международное гуманитарное право или права человека.

Автономные системы не просто продемонстрировали способность выполнить боевую задачу с соблюдением МГП, но практически в эфире продемонстрировали наличие контроля со стороны человека, а также потенциальную возможность атрибуции (идентификации) ответственного за нанесенный ущерб.

Безусловно, такой результат нельзя считать универсальным. БПЛА относятся к высокоточным вооружениям, и этим отличаются от предыдущих поколений вооружений, которые разрабатывались с целью нанесения максимального ущерба. Но на примере БПЛА нельзя судить о том, каким будет характер использования, например, наземных автономных систем, которые сегодня разрабатывают многие страны.

Воздушные дроны в основном не предназначены для ударов по живой силе. Например, тактику применения беспилотников Азербайджана описывают следующим образом. С первых дней дроны осуществляли избиение ПВО противника. После решения проблемы ПВО они переключились на танки, боевые машины, артиллерию и грузовики, перевозившие боеприпасы и подкрепления. Только за этим последовала серия ударов непосредственно по позициям армянской пехоты и по складам с боеприпасами. Кроме того, на протяжении всей войны дроны наводили на технику и скопления пехоты свою артиллерию.

Но в первую очередь очевидно именно то, что автономные вооружения могут хирургическими методами решать те задачи, для решения которых в ХХ веке требовались массированные удары.

В своем интервью президент Международного комитета Красного Креста Петер Маурер сказал: «Я не видел за восемь лет во главе МККК, и организация не видела за 157 лет существования войны, которая бы не сопровождалась нарушениями Женевских конвенций и международного гуманитарного права». Возможно, в Карабахе автономные системы стали примером того, как вооружения XXI века смогут вести боевые действия с соблюдением правил ведения войны.

Поверить алгеброй гармонию

Основной принцип международного гуманитарного права – принцип проведения различий – предусматривает, что нападающая сторона обязана обеспечить:

— различие между гражданскими лицами и комбатантами;

— различие между гражданскими объектами и военными объектами;

— запрет на нападения неизбирательного характера (нападения, которые не направлены на конкретные военные объекты и которые, таким образом, поражают военные объекты и гражданских лиц или гражданские объекты без различия);

— соблюдение принципа соразмерности при нападении (запрещены нападения, которые, как можно ожидать, попутно повлекут за собой потери жизни и ранения гражданских лиц и ущерб гражданским объектам, которые были бы чрезмерны по отношению к предполагаемому военному преимуществу);

— соблюдение мер предосторожности при нападении (нападающая сторона обязана выяснить характер объектов нападения, выбрать средства и методы ведения войны, предварительно оценить последствия нападения и заблаговременно предупредить гражданское население о возможных угрозах);

— ограничение средств и методов ведения войны (запрет на излишние разрушения или причинение чрезмерных страданий).

При практическом анализе принципов МГП становится очевидным, что закон требует от военачальников наличия механических навыков и математических способностей:

— распознания образов;

— способности отличить военных от гражданских лиц;

— способности распознавать и различать военные и гражданские объекты;

— знания технических характеристик собственных вооружений;

— знания возможностей вооружений противника;

— умения просчитать оборонительные действия противника и их боевую эффективность;

— способности рассчитать минимальные силы и средства, необходимые для достижения военных целей;

— умения определить способ нанесения минимального ущерба гражданским лицам и объектам при выполнении боевой задачи.

Для этого командиры должны располагать широкими знаниями, значительными аналитическими способностями и арифметическими навыками. Иными словами, обширной базой данных, высокой вычислительной мощностью и способностью к обработке больших данных. То есть именно тем, чем обладают нейронные сети или искусственный интеллект.

Сам принцип соразмерности (в английском варианте – proportionality) указывает на математическую основу правил ведения войны. Компьютер, вероятно, способен совершить все требуемые подсчеты на много порядков быстрее и точнее человеческого разума, отягощенного предрассудками, чувствами и рефлексией. Результаты применения автономных вооружений в Нагорном Карабахе могут послужить тому подтверждением.

Эти расчеты окажутся еще надежнее, когда вооруженные силы сформируют «сетецентрическую систему», объединяющую вычислительные мощности и различные ресурсы с помощью военного «облачного хранилища». Этим сегодня заняты все передовые армии мира. И даже если прототипы (прекурсоры) САС не смогут соперничать с человеком в соблюдении МГП, следующие поколения автономных вооружения станут «образцовыми солдатами» и опередят человека подобно тому, как компьютер вышел в лидеры в шахматах или игре Го.

В случае когда нарушения МГП со стороны автономных систем будут зафиксированы, системы регистрации или «черный ящик» с записью основных параметров послужит инструментом для расследования.

Здесь следует сделать оговорку: пока мы можем судить об автономных системах только на примере воздушных ударных беспилотников, для которых основной мишенью служит не человек, а машина. Ситуация может оказаться иной, когда на поле боя выйдут наземные автономные дроны. Несколько десятков стран сегодня совершенствуют свои беспилотные боевые машины. Наземные роботы в боевых действиях, где неизбежен контакт с людскими массами, могут потрясти мир своей «эффективностью».

Но представляется, что главной проблемой смертоносных автономных систем будет не неспособность соблюдать МГП, а отсутствие представления о человеческом достоинстве. Самый умный компьютер будет оставаться бездушной машиной, неспособной, к примеру, осмыслить оговорку Мартенса и соблюдать «принципы гуманности и требования общественного сознания».

Человечность и гуманность едва ли поддаются оцифровке. Этот недостаток надолго (возможно – навсегда) останется ахиллесовой пятой всякого самого умного аппарата. По этой причине человек не должен выпустить из рук контроль над автономными вооружениями. Машина, какой бы продвинутой она не была, не должна получить право лишать человека жизни.

Технологии против здравого смысла

Ценность человеческого достоинства могла бы стать достаточным аргументом в пользу запрета или строгого ограничения САС. Однако это представляется невозможным по ряду чисто технических и политических причин:

Испытания дистанционно управляемых наземных роботов в ряде стран показали, что эффективная дальность радиосвязи с оператором не превышает двух-пяти км. В автономном режиме наземный робот будет способен действовать на удалении до 500 км. Ограниченная радиосвязь становится техническим препятствием, заставляющим военных разрабатывать абсолютно автономные режимы использования САС.

Современные боевые действия предусматривают активное применение средств радиоэлектронной борьбы (РЭБ) для подавления или изменения качества управления, связи и разведки противника. В настоящее время эта разновидность вооруженной борьбы переживает подъем. Радиоэлектронное подавление считается одним из эффективных средств борьбы с автономными системами.

У разработчиков нет универсального решения для сохранения контроля над дистанционно управляемым боевым роботом, подвергшимся РЭБ-атаке. Возможные сценарии для потерявшего связь дрона таковы:

— попытаться выйти в район с устойчивой связью;

— вернуться на базу;

— остаться на месте до получения указаний;

— перейти в автономный режим.

С точки зрения военных, последний вариант должен быть предусмотрен как «бронепоезд на запасном пути».

Новые технологии САС, как правило, возникают не в головах военных стратегов или политических лидеров. Их порождают лаборатории, их выпестовывает промышленность, а лоббисты продвигают их на вооружение армий. Иначе говоря, военные технологии развиваются при слабом общественном контроле в режиме гонки вооружений, которая до поры до времени остается скрытой от глаз стенами конструкторских бюро.

Верификация САС представляется технически сложной, но не невозможной задачей. Видеоролики в интернете подтверждают, что применение высокоточных боеприпасов неплохо «протоколируется»: оператор осуществляет видеозапись, которая, вероятно, хранится в архиве министерства обороны.

То есть теоретически существует возможность при необходимости изучить обстоятельства конкретного случая применения оружия. Значит, можно заключить международное соглашение о предоставлении такого рода видеосвидетельств в определенных случаях. Такие материалы могли бы служить подтверждением того, что оператор сохранял контроль над беспилотным аппаратом во время атаки.

Впрочем, соображения секретности будут превалировать для большинства передовых армий мира при рассмотрении верификационных мер. Верификационные механизмы неизбежно начнут вторгаться не только в организационные механизмы воинских подразделений, но также в техническое устройство и программное обеспечение новейших вооружений. Кроме того, верификационные меры по контролю над САС будет нетрудно обойти: в конце концов, вся разница между автономным и дистанционно управляемым аппаратом скрыта в программном обеспечении, которое, в отличие от «бронепоезда на запасном пути», легко утаить. И здесь контроль над САС упирается в проблему глобального политического недоверия.

Мир возвращается к временам холодной войны. Планета испытывает дефицит доверия, и новые информационные и кибертехнологии только обостряют ситуацию. Когда вся система контроля над вооружениями распадается под реальными и надуманными предлогами, едва ли можно надеяться на взаимопонимание в такой чувствительной сфере как контроль над САС.

В силу подобных обстоятельств полный запрет САС представляется невозможным. Но политическая декларация, участники которой взяли бы обязательства придерживаться сохранения человеческого контроля над беспилотными ударными системами, может оказаться приемлемой альтернативой бесконтрольному распространению «автономных терминаторов» по планете.

В пользу этого говорят 11 принципов, принятые в сентябре 2019 года Группой правительственных экспертов по новым технологиям в области САС. Один из принципов гласит: «Должна быть сохранена ответственность человека за решения о применении оружейных систем, поскольку ответственность не может быть переложена на машину». В конце концов, человечество отличает от машин гуманизм, человечность и бережное отношение к человеческому достоинству.

источник: nvo.ng.ru

Кампания по борьбе с роботами-убийцами коалиции неправительственных организаций призывает запретить летальное автономное оружие. Фото Reuters

Об авторе: Вадим Борисович Козюлин – заведующий Центром глобальных исследований и международных отношений.

Добавил suare suare 1 Апреля 2021
Дополнения:

01.04.2021 21:16:00

Неведомый бог из военной машины

Теперь прожить можно искусственным интеллектом

Искусственный интеллект (ИИ) в военной сфере сравнивают с изобретением пороха или созданием ядерного оружия. Помимо технических проблем появляются философско-этические вопросы о будущей роли человека и робота с ИИ, их взаимодействии. Возможна ли, например, диктатура искусственного интеллекта?

Искусственным интеллектом называют набор технологий для построений систем анализа данных, позволяющих быстро принимать решения на основе собираемой информации. Однако ИИ уже наделяют свойствами терминатора и сверхсущества.

Cистемы искусственного интеллекта не только определяют развитие робототехники, но и меняют принципы ведения войны. Фото Reuters

Брак с резиновой Зиной

Человек был и еще остается производительной силой. Сегодня люди постепенно перестают быть нужны. На передовых японских предприятиях по сборке автомобилей людей в цехах практически нет, все делают роботы. Это так называемое дискретное производство. Все это – уже проявление угрозы цифровой диктатуры ИИ.

Да, технологии сами по себе нейтральны. Зло они или благо, решает человек. ИИ – часть информационно-коммуникационных технологий. Но так называемого сильного ИИ, который может представлять угрозу для человека, сегодня нет, и появится он очень не скоро.

Вот опасность «роботизации сознания» человека существует. Например, по навигатору в автомобиле водители едут туда, куда им указывает программа, а не собственное понимание. Мы живем алгоритмами, повинуясь воле их создателя.

Проникновение информационных технологий в жизнь человека диктует необходимость глобального документа, регулирующего этику ИИ. Это будет способствовать информационной безопасности.

В некоторых странах были попытки наделить роботов правами. Оппоненты говорят, это может привести к технофашизму. Некоторые пророчат появление «ювенальной юстиции» для ИИ. Роботы будут защищать права роботов. Например, дрон, защищая права другого дрона, прилетит и сожжет ваше жилище.

На международных конференциях высокого уровня обсуждаются отношения ИИ и человека. В это трудно поверить, но допускается возможность брака человека и робота, куклы в секс-индустрии. Причина и источник таких фантастических идей – конечно, большие деньги, интересы корпораций, другая система ценностей. Большая часть мирового сообщества против субъективизации ИИ. Пока побеждает человекоцентристский подход.

Искусственный интеллект может служить человеку и в сферах, пока неведомых. На земле можно синтезировать столько химических соединений, что их число превысит количество атомов во Вселенной. Может быть, среди этих соединений есть лекарства от всех болезней, материалы с универсальными свойствами… Сегодня ИИ проявляется в распознавании образов, навигации, транспорте, в совершенствовании сенсоров («органов чувств») у роботов. И конечно, в военном деле.

Целевая рабочая группа по вопросам будущего обороны США рекомендовала Пентагону сконцентрировать внимание на разработках в сфере ИИ. Это необходимо, чтобы конкурировать с Китаем и Россией.

В 2020 году учреждено новое объединение 14 стран и Евросоюза, получившее название Глобального партнерства по искусственному интеллекту (GPAI). Инициатива нацелена на выработку общих подходов к развитию и внедрению технологий ИИ. Участники обязуются поддерживать исследования и прикладную деятельность в сфере ИИ. Среди прочего обсуждается вопрос о перспективах использования ИИ в борьбе с пандемией коронавируса.

Первой национальную стратегию развития ИИ приняла в 2017 году Канада. В России также принята Национальная стратегия развития искусственного интеллекта и «Дорожная карта развития технологий искусственного интеллекта и нейросенсорики».

Этические принципы ИИ необходимы, поскольку внедрение систем ИИ в вооружение и военную технику вызывает множество вопросов. Например, насколько правомерно применять в войне автономные системы вооружения и какую угрозу они представляют для мирного населения в зоне боевых действий. Всего этических принципов использования систем искусственного интеллекта в военных целях пять: ответственность, беспристрастность, прослеживаемость, надежность, подчинение.

Затоскуют руки по штурвалу

Военная авиация все дальше уходит от ручного управления. Истребители пятого поколения (американские F-22 Raptor, F-35 Lightning и российский Су-57) устроены так, что человек участвует в их работе минимально. Они летают на малых высотах, огибая препятствия, рассчитывают тактику боя, предотвращают ошибки при сложном маневре, способны вернуться на аэродром вылета без подсказок диспетчеров. Су-57 уже выполнил полностью автоматический полет: пилот находился в кабине, но управления не касался. Так отрабатывали использование элементов шестого поколения авиатехники, полностью роботизированного. Привлекает военных и то, что робот всегда готов к бою, а его потеря влечет только финансовые издержки, но не гибель человека.

ИИ все еще пугает непредсказуемостью, поэтому человек остается у штурвала управления даже самой современной военной техникой. Су-57 уже сейчас может считаться истребителем шестого поколения. Он может управлять и другими объектами в воздухе, на земле и воде, решая совместные боевые задачи. Но из него, при всех его умениях, не убрали кресло пилота. «Контролер» может находиться и в тысячах километров от боевой машины. Дрон MQ-9 Reaper уничтожает цели в Афганистане и Пакистане, а его оператор сидит в Европе или Америке.

ВВС США планируют принять на вооружение беспилотные ведомые Loyal Wingman и новую систему управления ими. Случится это не ранее 2023 года. Loyal Wingman длиной 11 м и с размахом крыла 11,7 м сможет выполнять полеты на удалении до 3,7 тыс. км, неся дополнительное вооружение или системы обнаружения и наблюдения.

Министерство обороны США модифицирует учебные самолеты L-39 Albatros чешского производства, чтобы ими могла управлять система ИИ. Тема и цель модификации – развитие воздушного боя. Система ИИ сможет брать управление самолетом на себя и вести маневренный ближний воздушный бой. Система будет учиться воздушному бою аналогично курсантам, начиная с простых маневров и заканчивая фигурами высшего пилотажа.

А конечная цель – создание ИИ для боевых беспилотников. Сюда включены ведомые БЛА, которые будут прикрывать пилотируемые истребители. Новая система ИИ сможет вести воздушный бой быстрее и эффективнее человека, существенно снижая нагрузку на летчика и предоставляя ему время для принятия тактических решений в рамках более масштабной боевой задачи.

Выбор цели

Штаб Сил специальных операций (ССО) США работает над развитием средств по лучшему пониманию местного населения и влиянию на него. 90% размышлений военного командования, по статистике, уходит на передвижение и стрельбу, на то, чтобы понять, о чем думает противник, и как на это повлиять. В будущих информационно-боевых операциях ССО большую роль будет играть ИИ. Командование создает новый штаб, в котором ИИ будет применяться для перевода, сканирования захваченных ноутбуков и сотовых телефонов, борьбе с сообщениями противника.

В 2021 году командование ССО США начало реализовывать программу по предоставлению боевым командирам улучшенных средств ИИ. Это, в частности, создание программного обеспечения по визуализации, которое позволит отображать актуальную тактическую информацию: численность населения, тренды в социальных сетях, анализ чувств и другие социальные аспекты. Предполагается, что это даст командирам понимание обстановки в социальной и психологической сфере в местах, где им придется действовать. ССО взаимодействуют с Объединенным центром искусственного интеллекта и реализует 30 проектов, в которых применяется ИИ и автоматическое обучение.

В США пытаются модернизировать управление военной техникой с помощью ИИ. Сегодня управление танками такое же, как и сорок лет назад. Ими управляют вручную механики-водители, наводчики вручную обнаруживают, идентифицируют и поражают цели – вручную же выбранными боеприпасами.

За помощью военные обратились к Командованию по развитию боевых возможностей. И получили усовершенствованную систему наведения и управления огнем ATLAS. В ней новые датчики, алгоритмы машинного обучения и новый сенсорный дисплей для автоматизации процесса поиска и поражения целей. Экипажи смогут поражать несколько целей за время, в которое сейчас поражается одна цель.

Такой механизм – прототип будущего танка или боевой машины, в которую будет интегрирован ИИ. Когда цель обнаружена и находится в прицеле, оператор может согласиться с рекомендациями ИИ и нажать на спусковой крючок. Или перед нажатием отрегулировать настройки и даже отказаться от боя. От обнаружения цели до открытия огня проходят секунды. После уничтожения цели оператор на сенсорном экране выбирает следующую.

Подмена противника и слежка за своими

Американские военные разработчики из DARPA просят промышленность разработать алгоритмы ИИ, способные имитировать активное поведение противника во время военных игр. Эти алгоритмы должны будут выдавать реакцию, трудно воспроизводимую людьми. Проект называется «Создание сражения в машинном боевом обучении с тактикой противника». Алгоритмы ИИ будут генерировать модели поведения противника на бригадном уровне.

Идея в том, чтобы быстро разработать несколько возможных направлений действий противника, найти оптимальные решения и обосновать рекомендации. ИИ будет играть за противника, чтобы стимулировать разработку новой тактики боя. На смену традиционному тактическому поведению противника придут с помощью ИИ неожиданные новые действия. Методы ИИ раньше не применялись в этой сфере. Первоначальные алгоритмы и поведение искусственного интеллекта противника будут разработаны в соответствии с пособием «Русский способ войны: организация, тактика и модернизация Сухопутных войск России». Оно выпущено Управлением по военным исследованиям армии США (Army Foreign Military Studies Office).

Количество атак на информационные системы растет каждый год. При этом атаки становятся все изощреннее, все больше потенциальных целей, ущерб от атак все выше. Традиционные средства антивирусной борьбы не могут справиться с эпидемиями атак. Остра нехватка опытных специалистов по обеспечению безопасности. На помощь для обеспечения кибербезопасности позвали ИИ.

Другая функция ИИ – контроль поведения сотрудников. Например, обнаружение неадекватного поведения: запрос ненужных по работе данных и другое.

Искусственный интеллект позволит преодолевать противодействие средств РЭБ или обнаруживать новые угрожающие источники электромагнитного излучения.

Умножить на десять

Лондонский Международный институт стратегических исследований пришел к выводу: ИИ является продуктом возможностей компьютера по выполнению функцией человека, но на скоростях, недоступных ему. Эти технологии уже применялись в боевых операциях. Например, программное обеспечение по обработке данных разведки применялось в операциях по борьбе с терроризмом. Современные ракетные системы ПВО и ПРО большой дальности используют алгоритмы компьютерного обучения для борьбы с баллистическими и крылатыми ракетами.

По итогам военных игр американской армии признано: пехотный взвод, усиленный ИИ, может увеличить свои наступательные возможности в десять раз, сместив баланс в пользу атакующих действий. ИИ позволяет снизить количество личного состава и техники при проведении боевых операций.

В гипотетическом сценарии войны США с Китаем или Россией американские командиры, поддержанные средствами ИИ, могут, как они полагают, быстро вывести из игры китайские или российские РЛС, высокоточные платформы, гиперзвуковые ракеты. ИИ может быть использован ВС США для ведения маневренной войны во всех сферах – многодоменной, как говорят в Пентагоне. Маневренная война в XXI веке будет зависеть от быстрых и верных решений, а решения, в свою очередь, – от информационного превосходства и доминирования в киберпространстве. Но структура военных формирований США заточена на ведение войны на истощение, а не на войну маневром с использованием ИИ.

Игры разума в России

До 2023 года в России в рамках национального проекта «Наука» будут созданы девять научных центров мирового уровня. Особое внимание уделено передовым цифровым технологиям, робототехнике, кибербезопасности, искусственному интеллекту.

Для Минобороны России планируется разработать системы с ИИ на основе нейронных сетей. НИР называется «Исследования по созданию экспериментального образца комплекса разработки, обучения и реализации глубоких нейронных сетей для нового поколения военных систем с искусственным интеллектом» (шифр «Каштан»). Работы должны быть завершены до ноября 2022 года.

ИИ, который еще только предстоит создать – это машинная система, способная обучаться и использовать знания и опыт, решать задачи наподобие человеческого мозга, выстраивать стратегии и применять абстрактные концепции. Ждать не придется долго, поскольку технологии сегодня развиваются очень быстро. В доказательство приведем несколько примеров.

Концерн «Автоматика» госкорпорации Ростех разработал систему управления робототехническими комплексами «Гипноз». При помощи технологий ИИ и виртуальной реальности роботы будут выполнять экстремальные задачи в условиях радиации, высоких и низких температур, плохой видимости.

Разработка может применяться при добыче, обогащении и производстве ядерного топлива, для обслуживания реакторов атомных электростанций, для контроля радиационного фона на объектах хранения облученного ядерного топлива, для ликвидации аварий в рудниках без участия человека, для решения других специальных задач.

У системы есть пульт управления, комплекс датчиков и видеокамер, бортовые вычислительные машины, лидар, высокоскоростной беспроводной канал управления, ретранслятор для увеличения дальности связи. Оператор удаленно управляет комплексом при помощи VR-очков, на которые выводится информация с камер и датчиков робота. Технологии ИИ позволяют автоматически определять и подсвечивать объекты, с которыми работает робототехника.

Объединенная двигателестроительная корпорация Ростеха тестирует платформу промышленного интернета вещей на производственном комплексе «Салют». Система с элементами ИИ будет отслеживать изготовление двигателей и позволит моделировать их испытания в виртуальной среде.

Система определяет, как характеристики деталей влияют на качество двигателя, и строит математическую модель испытаний. В эту модель загружается информация о новых компонентах двигателя и условиях его сборки, создается элемент цифрового двойника будущего изделия. ИИ анализирует данные и прогнозирует, насколько успешными будут реальные испытания двигателя. По итогам тестирования будет сформирована методика тиражирования опыта на других предприятиях Ростеха.

Российским специалистам есть на кого ориентироваться, тем более что конкурент дышит в спину. Руководство КНР не раз заявляло, что Китай собирается к 2030 году стать мировым лидером в области технологий ИИ и крупнейшим центром инноваций. А США приняли так называемую «Третью компенсационную стратегию», которая будет внедрять инновации в военную сферу. К таким инновациям Пентагон относит искусственный интеллект

В ближайшие годы, по прогнозам, ведущие державы будут втянуты в гонку инновационных вооружений. Президент Путин еще в 2017 году говорил: «Искусственный интеллект – это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы. Тот, кто станет лидером в этой сфере, будет властелином мира». Экономисты уже подсчитали: на развитие ИИ в России до 2024 года потребуется 244 млрд руб.

Об авторе: Николай Николаевич Поросков – военный журналист.

Добавил suare suare 1 Апреля 2021
Комментарии участников:
magmaster
+1
magmaster, 2 Апреля 2021 , url

Лондонский Международный институт стратегических исследований пришел к выводу: ИИ является продуктом возможностей компьютера по выполнению функцией человека, но на скоростях, недоступных ему

 О чём я всегда и говорил. Это всего лишь инструмент. Кто и на какие цели его направит вот вопрос. На какой концепции случится  технологическая сингулярность? На основе концепции русского мира или на основе англосаксонской модели агрессивной экспансии и разграбления доступных ресурсов?

 

www.dw.com/ru/%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%80%D0%BE%D1%81%D1%81%D0%B8%D1%8F-%D0%B4%D0%B5%D0%BB%D0%B0%D0%B5%D1%82-%D1%81%D0%B2%D0%BE%D0%B8%D0%BC-%D0%BF%D1%80%D0%B8%D0%BE%D1%80%D0%B8%D1%82%D0%B5%D1%82%D0%BE%D0%BC-%D1%81%D1%84%D0%B5%D1%80%D1%83-%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE-%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D0%B0/a-50987320

suare
0
suare, 2 Апреля 2021 , url

Оружие не убивает: дубина, автомат или ракета, даже если им всем сделать smart приставку для точности, скорости и эффективности.

В этом смысле заряжаемое с казённой части оружие, пулемёт «Максим» и атомная бомба произвели не большие революции в ведении войн, чем кибернетические составляющие современного «умного» оружия.

Убивают люди ради своих интересов, страстей или суеверий.



Войдите или станьте участником, чтобы комментировать