Архив рубрики: Robots

A Reaper Drone Shot Down Another Drone in First Unmanned Air-to-Air Kill

The incident was the dawn of unmanned air-to-air combat.

Fear the Reaper


A U.S. Reaper drone shot down another with a missile, the Air Force revealed yesterday. The incident, which took place last year and involved an unmanned target drone, was the first case of a drone shooting down another another aircraft. The event ism a watershed moment in the history of aerial warfare, as unmanned aircraft begin to muscle in on air-to-air combat—previously the exclusive domain of manned aircraft.

Colonel Julian Cheater, commander of the 432nd Air Expeditionary Wing, revealed the incident in an interview with Military.com. The 432nd “Hunters” Wing is based at Creech Air Force Base, Nevada and is responsible for “unmanned precision attack and intelligence, surveillance, and reconnaissance missions…in support of overseas contingency operations”.


U.S. Marines fire the shoulder-fired version of the Stinger missile.U.S. MARINE CORPS PHOTO BY LANCE CPL. HANNA L. POWELL

According to Military.com, a MQ-9 Reaper launched a infrared guided air-to-air missile against a “maneuvering target,” a smaller target drone. The missile scored a direct hit. The Air Force regularly shoots down target drones, but this is the first time an unmanned aircraft has shot down another aircraft.

The MQ-9 Reaper is a bigger, more heavily armed version of the original MQ-1 Predatordrone. The Reaper can typically carry four AGM-114 Hellfire air-to-ground missiles and two 500-pound laser or GPS-guided bombs.



U.S. military use of unmanned drones exploded in the post-9/11 era, with the uncrewed craft taking on reconnaissance and later precision ground attack missions. Although expanding their mission into the world of air-to-air combat was inevitable and faced no serious technical challenges, it took a while for a drone to shoot down another aircraft.

This was not, however, the first instance of an unmanned drone involved in air-to-air combat. Several military drones have been shot down over the past 16 years, starting with a 2002 incident in which a Iraqi MiG-25 shot down a Predator drone. In February 2018, the Israeli Air Force shot down a drone belonging to Hezbollah. Here’s an incident from 2008, when a Russian Aerospace Force MiG-29 shot down a Georgian drone:

The air-to-air missile carried by the Reaper drone was likely a FIM-92 Stinger missile. Originally designed as a shoulder-fired surface-to-air missile, Stinger was adapted into a potent short-range air-to-air weapon.

Reapers downing small unmanned drones is admittedly a long way from a futuristic vision of fleets of unmanned jet fighters, but the November incident was the first step. Unmanned air-to-air combat is inevitable and could be a regular mission sooner than most people think: The Pentagon is increasingly nervous about the prospect of enemy drones on the battlefield. Rather than task high-end F-35 fighters with the mission, drones like the Reaper could fight their own air-to-air battles, shooting down surveillance enemy drones with Stinger missiles.

Source: Military.com.

Lethal Microdrones, Dystopian Futures, and the Autonomous Weapons Debate

The future of weaponized robots requires a reasoned discussion, not scary videos

In "Slaughterbots," a film created by a group of academics concerned about autonomous weapons, terrorists deploy swarms of explosive-carrying microdrones to kill thousands of people.
Image: Slaughterbots/YouTube
In «Slaughterbots,» a film created by a group of academics concerned about lethal autonomous weapons, swarms of explosive-carrying microdrones are used to kill thousands of people.

Over the weekend, however, I came across a video that struck me as a disturbing contribution to the autonomous weapons debate. The video, called “Slaughterbots” and produced with support from Elon Musk’s Future of Life Institute, combines graphic violence with just enough technical plausibility to imagine a very bleak scenario: A fictional near future in which autonomous explosive-carrying microdrones are killing thousands of people around the world.

We are not going to embed the video here because it contains a number of violent scenes, including a terrorist attack in a classroom (!). You can find it on the Future of Life website.

It’s very disappointing to me that robotics and AI researchers who I otherwise have a lot of respect for would support this kind of sensationalism that seems designed to shock and scare people rather than impart any sort of useful information about what the actual problem is. The message here seems to be that if you’re interested in having a discussion about these issues, or if you think that perhaps there might be other, potentially more effective ways of shaping the future of autonomous weapons besides calling for a ban, then you’re siding with terrorists. This is a dismally familiar form of rhetoric that has been shown to be effective when the objective is not to communicate facts, but rather exploit emotions and fears. Another problem is that videos like this, created and promoted by academics, might make the public more distrustful and afraid of robots in general, which is something the robotics community has long been fighting against.

Personally, I am not for “killer robots.” I am not for “autonomous weapons beyond meaningful human control,” either. I find it difficult to support an outright ban at this point because I think doing so would be a potentially ineffective solution to a complex problem that has not yet been fully characterized. AI and arms-control experts are still debating what, specifically, should be regulated or banned, and how it would be enforced. Saying “we have an opportunity to prevent the future you just saw,” as UC Berkeley professor Stuart Russell, one of the creators of “Slaughterbots,” does at the end of the video, is an oversimplification—in my opinion, a ban on autonomous weapons won’t prevent the miniaturization of drones, won’t prevent advances in facial-recognition technology, and likely won’t prevent the integration of the two, which is just the scenario that “Slaughterbots” presents.

Asked if the film is relying on fear-mongering, one of Russell’s colleagues, Toby Walsh, an AI professor at the University of New South Wales, disagrees. “It’s not fear-mongering,” he says. “The Russian Ambassador to the UN just said to the CCW meeting that we don’t have to worry about lethal autonomous weapons because they’re too distant to necessitate worrying about. To the contrary, the film was designed to demonstrate how near we are to autonomous weapons. It shows what happens if you put together some existing technologies and the misuses to which such technology could be put.”

Two years ago, I responded to the first open letter calling for a ban on offensive autonomous weapons by presenting an alternate perspective about why autonomous weapons might also be beneficial. Russell and Walsh, along with MIT professor Max Tegmark, kindly responded in an article published in IEEE Spectrum, which started with the following:

“We welcome Evan Ackerman’s contribution to the discussion on a proposed ban on offensive autonomous weapons. This is a complex issue and there are interesting arguments on both sides that need to be weighed up carefully.” 

I totally agree. Having this discussion now is the best way to work towards a more peaceful future, but to do that, we have to have the discussion, not make scary videos designed to vilify the people we disagree with while reinforcing the unrealistic and increasingly negative perception that many people already have about robotics.


Боевые роботы наступают: автономия как военно-стратегический концепт

Георгий Почепцов, для «Хвилі»


Мир начал стремительное развитие не только к новому миропорядку, но и к новым технологиям, которые будут создавать этот миропорядок. Среди этих технологических прорывов стоит и развитие искусственного интеллекта. В 1993 г. Вернор Виндж первым заявил об идее технологической сингулярности как о создании вне человека суперчеловеческого разума ([1], см. также [2 — 3]). Он увидел это будущее через 30 лет, считая, что после этого время людей закончится. При этом он считал, что биологическая наука также может усилить человеческий интеллект, тем самым отодвинув это будущее.

Известный футуролог Рєймонд Курцвейл уже сегодня предсказывает, что искусственный интеллект сравняется с человеческим уже через 12 лет [4]. Все это ведет к новым изменениям социального порядка. Так, в соответствии с исследованиями Кембриджского университет 47% профессий США будут автоматизированы в следующие двадцать лет, включая не только рабочие, но и офисные профессии [5]. Однако одновременно происходит падение уровня IQ в мире [6]. Проводятся конференции, призванные очертить возможные виды взаимодействия человека с искусственным интеллектом [7]. Главной проблемой при этом становится этическая. Бывший советник Обамы по проблемам сферы здоровья Э. Эмануэль считает, что потеря работы для человека будет иметь нехорошие последствия , поскольку осмысленная работа является важным элементом нашей идентичности [8].

Известный философ Дэниел Деннет акцентирует принципиальную возможность построения искусственного интеллекта: «Я говорил все время, что в принципе человеческое сознание может быть реализовано в машине. Если разобраться, то мы сами такие. Мы роботы, сделанные из роботом, сделанных из роботов. Мы ужасно сложные, триллионы движущихся частей. Но все они являются не-чудодейственной роботизированными частями» [9].

Автор книг на тему использования искусственного интеллекта, нанотехнологий в военном деле Л. Дел Монт говорит: «Сегодня нет законодательных ограничений по поводу того, как много разума может иметь машина, как взаимосвязано это может быть. Если так будет продолжаться, посмотрите на экспоненциальный рост. Мы достигнем сингулярности в то время, которое предсказывает большинство экспертов. С этого времени главными видами больше не будут люди, это будут машины» [10].

Дел Монт видит опасность в развитии искусственного интеллекта в создании автономного оружия в том, что другие страны тоже создадут такое же оружие в ответ только без мирного протокола [11]. Ядерное оружие было создано, и только одна сторона с тех пор его применила. Теперь все воздерживаются от его использования из-за боязни взаимоуничтожения. Кстати, Россия также активно смотрит в сторону войн будущего [12 — 13].

Если мы посмотрим на интервью ведущих представителей американской военной элиты, то они как раз изучают этот новый концепт — автономию, с которым связывают серьезное будущее. Последствия его внедрения ставят в один ряд с появлением ядерного оружия. Предыдущий министр обороны Эштон Картер, который до этого поста занимался теоретической физикой, был профессором Гарварда, говорит о роли автономии: «Думаю, что это изменит ведение войны фундаментальным образом. Не уверен, что нечто, производимое автономно, сможет соперничать с разрушительной силой ядерного оружия. Я также считаю автономию сложным понятием. Не следует забывать, что когда мы сталкиваемся с использованием силы для защиты цивилизации, одним из наших принципов должно быть наличие человека для принятия критически важного решения» [14].

В принципе, если задуматься, это парадоксально, поскольку создается самое совершенное оружие, способное действовать вне человека, но, как оказывается, ему все равно нужен человек, поскольку без участия человека резко возрастает опасность непредсказуемых последствий.

Глава научных исследований ВВС Г. Захариас, перечисляя автономию наряду с такими прорывными подходам и, как нанотехнологии, лазеры или гиперзвук, говорит: «Автономия не является конкретной системой вооружения, это предоставление новых возможностей. […] Автономия в движении — это то, что мы знаем в качестве нормально робототехники на земле или на море. Но в остальном автономия это помочь в принятии решений. Например, сейчас мы в ручную просматриваем видео в поисках плохих парней, но это, конечно, может делаться в автоматических системах слежения, которые развиваются. Идеей является подключение машин к проблемам big data» [15].

Как видим, речь идет о взаимодействии человека и машины. При этом зам.министра обороны Роберт Уорк акцентирует следующее: «Путь, по которому мы пойдем по развитию взаимодействия человек-машина, заключается в том, чтобы машина помогала людям принимать лучшие решения быстрее» [16 — 17].

По сути это отражено в анализе будущей войны 2050 г., который был сделан достаточно известными специалистами [18]. Кстати, тут есть и такие отдельные подразделы, как «Дезинформация как оружие», «Микротаргетинг», «Когнитивное моделирование оппонента», что вполне интересно и для мирных целей.

Дезинформация, например, обсуждается в следующем разрезе. Раньше солдат получал информацию из достоверных источников. Сегодня, получая информацию из разных источников, солдату требуется оценивать качество этих информационных источников. Микротаргетинг в военном понимании это уничтожение, к примеру, не здания, а конкретного индивида. В качестве примера когнитивного моделирования военные отмечают сегодняшний нейромаркетинг, который позволяет четко ориентировать на конкретные потребности потребителя.

Поскольку доминирующими все это время были технологии, связанные с информационным веком, то авторы считают, что следует думать в этом же направлении, анализируя будущую войну 2050 г.

При этом сразу следует отметить появившуюся в ответ активность о запрете разработок такого оружия, которое будет действовать вне человека [19 — 20]. И это вполне понятно: то, что хотят военные, часто не совпадает с тем, что хочет общественность. Общественная кампания направлена на то, чтобы «остановить убийц-роботов».

Масла в огонь тут могут подливать не столько секретные разработки военных, сколько вполне мирные статьи типа «Обсуждение автономии и ответственности военных роботов», которые, например, печатаются в журнале под характерным названием «Этика информационных технологий» [21]. Развитие технологий не может быть предсказано с большой определенностью, поэтому и возникают соответствующие опасения. При этом констатируется, что автономия не является хорошо понимаемым концептом. Поэтому и возникает опасение, что «никто из людей не будет нести ответственности за поведение (будущих) автономных роботов».

То есть мы видим, что понятие автономии все время вращается вокруг проблемы принятия решений. А это в принципе (и без роботов) является на сегодня проблемой номер один во всех сферах: от бизнеса, когда решение принимает покупатель, и выборов, где решение принимает избиратель, до военного дела.

Авторы статьи об ответственности роботов, подчеркивают, что технологии «позволяют людям делать то, что они не могли до этого, в результате чего они меняют роли и ответственности и создают новые. Такая же ситуация и с роботами. Отслеживая различные пути выполнения задач роботосистемами является базовым для понимания того, как задачи и ответственности создаются и распределяются по всей широкой социотехнической системе».

Следует также вспомнить, что сетевая война, предложенная как концепт Дж. Аркиллой, по сути имела главной характеристикой неиерархический характер боевых единиц (повстанцев), которые могли сами принимать решения, в отличие от армии как иерархической структуры [22 — 24]. Армия сможет их побеждать, только если сама перейдет на сетевую форму существования, в противном случае она всегда будет запаздывать с принятием своих решений против сетевого противника, который делает это моментально.

Первые разработки уже по собственно автономии в рамках министерства обороны появились в 2012 г. [25]. Тогда были поставлены ряд задач, среди которых были и такие:

— определение новых возможностей для более агрессивных применений автономии,

— установление потенциальной ценности автономии для случаев симметричного и асимметричного противника,

— предвосхищение новых опасностей от распространения автономии,

— идентифицировать системные барьеры для реализации полного потенциала автономных систем.

В целом возникающие проблемы в военном деле, из-за которой «на службу» была призван автономия таковы:

— новые формы перегруженности информацией,

— разрывы между ответственностью и авторитетностью,

— сложности в координации общей деятельности, требующей больше людей или полномочий.

В результате через несколько «итераций» дискуссий пришли к четкому пониманию понятия автономии. Это уже взгляд из 2016 г.: «Автономия является результатом передаче решения уполномоченному на принятие решений объекту в рамках конкретных ограничений. Важное различие состоит в том, что системы, управляемые предписывающими правилами, которые не разрешают отклонений, являясь автоматическими, не являются автономными. Чтобы быть автономной, система должна иметь способность сама независимо вырабатывать и выбирать среди разных возможных типов действий для достижения целей, опираясь на знание и понимание мира и ситуации» [26]

Этим определением военные пытаются закрыться от множества пониманий и интерпретаций понятия автономии. Например, выделяют семь мифов автономии [27]:

— автономия — это одномерный объект, который всем понятен,

— концепция уровней автономии не может быть положена в основу, поскольку она просто редуцирует сложность,

— реально нет полностью автономных систем,

— можно избавиться полностью от человеческого участия.

В продолжении этой статьи прозвучали слова, которые можно трактовать как базовую точку отсчета: «Технология, которую часто называют как «автоматизация», а в более продвинутой форме «автономией, сделала современный труд более когнитивно сложным. Теория и исследования в сфере сложных систем демонстрируют широкий консенсус по поводу того, что существенная сложность не может быть уменьшена. Следует признать сложность (и увеличение сложности) стойким и растущим фактом. И иметь с ним дело. Будет опасной ошибкой пытаться избежать сложности с помощью редукционистских представлений и пытаться порождать простые решения» [28].

Из всего этого становится понятным, что не только взаимодействие с человеком является точкой отсчета, но и все возрастающая сложность технологий, которыми человек реально с помощью сегодняшнего уровня знаний не в состоянии справиться. Пока мы находимся на начальной стадии этих процессов. И это видно по ближайшим прогнозам, например, такому: «Если сегодня в США один пилот дистанционно управляет одним беспилотником, то вскоре один человек будет управлять несколькими» [29].

Сегодня уже каждый потребитель информации сталкивается с тем, что объемы информации привели к трансформации понятия правды, факта и под. Мы получили мир пост-правды, в котором разного рода фейки заняли неподобающее им место.

Перед нами возникла та же ситуацию, что и при обсуждении военных проблем. Только у военных все это связано с применением оружия, что напрямую отсутствует в мирных ситуациях, хотя косвенно может вести и к такого рода последствиям.

Из Автономии 2016 г. «вытягивается» такая идея: «Будет более важно постоянно обучать и тренировать людей-пользователей, чем развивать программное и аппаратное обеспечение для автономных систем. «Распространение таких систем уже представлено в частном секторе, где присутствует не так много умных противников, желающих изменить данные или победить противника» [30].

Поскольку на авансцену вышло понимание войны как справедливой, то убийство дроном гражданского человека является проблемой (31], см. также целую книгу на эту тему, где представлены этические, юридические и политические перспективы автономии [32]). При этом программное обеспечение робота все равно будет написано человеком.

Как неоднократно подчеркивается, на человека все равно остается вся ответственность. Поэтому в таких текстах подлинная автономность прячется где-то далеко в будущем. Ср., например, следующее высказывание: «Автономные системы независимы настолько, насколько позволяют их программы, и все равно определение возможностей в данной ситуации лежит на людях-операторах. Поэтому пока органические основанные на ДНК компьютеры не сойдут со страниц комиксов на поле боя, люди-операторы останутся на контроле автономных приложений» [32].

Базовый текст 2016 г. подчеркивает необходимость доверия к системе. При чем подчеркивается, что в коммерческих вариантах нет таких тяжких последствий, которые возможны на поле боя. Отсюда следует невозможность переноса бизнес-практики в военное дело.

В американском анализе будущей войны 2050 г. четко постулируется участие роботов в будущей войне. Там говорится следующее: «Роботы буду обычно действовать командами или роем в боевых действиях 2050 года точно так, как сегодня действуют солдаты. Эти самоуправляемые и/или совместно действующие роботы будут действовать с меняющейся степенью свободы (от активного управления до автономного функционирования) в рамках динамически устанавливаемых правил боя/приоритетов. Рои и команды роботов, как и индивидуальные роботы, будут выполнять разнообразные задачи» [18]. То есть перед нами возникает вполне обыденная картинка трудяг-роботов из фантастического фильма.

Есть еще одна проблема, которую, можно обозначить как необходимость иных конфигураций политических игроков, чем при привычном противостоянии, которое существует до настоящего времени. Эта сложность возникла при разработке лазерного оружия. Один из участников этого противостояния с советской стороны вспоминает: «Напряженная экспертно-аналитическая работа, в которой довелось участвовать и мне, шла за кулисами этой драмы. Нам удалось выйти на более глубокие ее слои. Сразу после выдвижения Рейганом идеи щита, основанного на лазерно-космическом вооружении, мой учитель академик Раушенбах обратил внимание на его непредвиденное новое качество. Впервые в военной истории появляется оружие, для которого скорость нападения сравнялась со скоростью оповещения. Для участия человека в контуре управления не остается никакого временного зазора, гашетку приходится передавать роботам. По той же причине мирное сосуществование двух и более лазерных систем на орбите принципиально невозможно: любой неопознанный космический объект, могущий оказаться носителем боевого лазера, должен быть мгновенно уничтожен. Как разъясняли мы в диалоге с коллегами из Heritage Foundation, вопрос из сферы военной технологии переходит в сферу собственности: у системы лазерно-космической защиты может быть только один хозяин. Тогда речь шла о международной организации, за которой должна быть закреплена монополия на развертывание космического щита. Эта позиция успела приобрести влиятельных сторонников в самом верхнем эшелоне советского руководства и едва не оказалась в центре очередного саммита. Но с распадом страны диалог по проблеме остановился» [33].

Эта та же проблема принятия решений, только в ситуации, когда из-за нехватки времени уже невозможно вмешательство человека, а последствия еще больше, чем в случае боевого робота. Кстати, как известно, были ситуации, причем несколько, когда дежурный офицер с советской стороны не принимал решения об ответном ударе, хотя по радарам, казалось, что США уже нанесли удар первыми.

В заключение о парадоксальной теме, которая также возникла в этом контексте — это искусственный интеллект и фашизм [34 — 36]. К. Кроуфорд обратила внимание на опасность попадания искусственного интеллекта не в те руки. Сегодня мы видим, как развитие искусственного интеллекта идет параллельно с ростом в мире ультра-национализма, правого авторитаризма и фашизма. Она называет эту ситуацию темными временами и ставит вопрос, как защитить уязвимые и маргинализированные сообщества от потенциального использования этих систем для наблюдения, преследования и депортации. Речь идет, например, о работах, где ищется связь между лицом человека и его возможным криминальными действиеми. Именно это она и относит к проявлению фашизма. У нее есть и отдельная работа, анализирующая связку наблюдения с big data [37].

Кстати, Кроуфорд, сама являясь специалистом по big data, скептически относится к идее, что известная сегодня фирма в связи с президентскими выборами в США Cambridge Analytica сыграла решающую роль как в Brexit, так и в избрании Дональда Трампа. Правда, как она считает, в ближайшие несколько лет это станет действительно возможным. Кроуфорд заявляет по этому поводу: «Это мечта фашиста. Власть без подотчетности».

К нашему счастью, все это еще только на горизонте. Может, человечеству еще удастся «повзрослеть». А пока ситуация находится в развитии. Как отмечает Я. Семпл: «Путь к искусственному интеллекту уровня человека долгий и достаточно неопределенный. Все программы искусственного интеллекта сегодняшнего умеют делать только что-то одно. Они могут распознавать лица, звучание вашего голоса, переводить с иностранных языков, торговать запасами и играть в шахматы» [38].

Сергей  Переслегин видит более широкий контекст этой проблемы, когда говорит следующее: «Лем еще где-то в 1975 году довольно убедительно доказал, что система искусственного интеллекта способна преодолеть любые рамочные ограничения, поставленные ее программой. Это не означает, что они все их будут преодолевать, но так ведь и не все люди преодолевают свои рамочные ограничения. Поэтому если искусственный интеллект состоит из совокупности программ, то это еще не значит, что он будет им следовать. И в еще меньшей степени значит, что мы будем способны различить, когда он следует программам, а когда нет. Кстати, американцы осенью прошлого года выпустили на экраны небольшой сериал «Мир Дикого Запада», где они подробно анализируют эту проблему» ([39], см. также [40]).

Мир несомненно станет более сложным, поскольку появляется более сложный инструментарий, в том числе и у военных. Так что роботы также займут места и солдат, а не только офисных работников. Однако автономия в случае военных создает ту проблему, что в отличие от офисных работников эти роботы будут вооружены смертельным оружием. Кстати, можно себе представить и опасность от них для своих собственных солдат в случае каких-либо сбоев в программе, что также вполне возможно.


1. Vinge V. [Singularity] // mindstalk.net/vinge/vinge-sing.html

2. Vinge V. The Coming Technological Singularity: How to Survive in the Post-Human Era // www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html

3. Vinge V. Technological singularity // www.frc.ri.cmu.edu/~hpm/book98/com.ch1/vinge.singularity.html
4. Kurzweil R. AI will rival human intelligence in 12 years // www.cloudpro.co.uk/business-intelligence/6692/ray-kurzweil-ai-will-rival-human-intelligence-in-12-years

5. Белов С. и др. Дефицит искусственного интеллекта // www.vedomosti.ru/opinion/articles/2017/03/21/681987-defitsit-iskusstvennogo-intellekta

6. Bouee C.-E. What educational aims do we have in the age of artificial intelligence? // www.linkedin.com/pulse/what-educational-aims-do-we-have-age-artificial-charles-edouard-bou%C3%A9e

7. The Next Step to Ensuring Beneficial AI // futureoflife.org/2017/02/02/fli-january-2017-newsletter/

8. Lufkin B. Why the biggest challenge facing AI is an ehical one // www.bbc.com/future/story/20170307-the-ethical-challenge-facing-artificial-intelligence

9. Philosopher Daniel Dennett on AI, robots and religion // www.ft.com/content/96187a7a-fce5-11e6-96f8-3700c5664d30

10. Fathima A.K. New Artificial Intelligence Technology Will Threaten Survival of Humankind: Louis Del Monte // www.ibtimes.com.au/new-artificial-intelligence-technology-will-threaten-survival-humankind-louis-del-monte-1346175

11. Faggella D. Why We Must Hardware AI if We Want to Sustain the Human Race – A Conversation with Louis Del Monte // www.techemergence.com/why-we-must-hardware-ai-if-we-want-to-sustain-the-human-race-a-conversation-with-louis-del-monte/

12. Малинецкий Г.Г. Наука ХХI века и формат войн будущего// warfiles.ru/show-94656-malineckiy-vremya-tankov-ushlo.html

13. Плеханов И. Нанооружие и гибель человечества // inosmi.ru/science/20170321/238918900.html

14. Thompson N. The former Secretary of defence outlines the future of warfare // www.wired.com/2017/02/former-secretary-defense-outlines-future-warfare/

15. Seligman L. Interview: Air Force chief scientist Dr. Greg Zacharias // www.defensenews.com/story/defense/policy-budget/leaders/interviews/2016/02/20/interview-air-force-chief-scientist-dr-greg-zacharias/80424570/

16. Pomerleau M. The future of autonomy has strong human component // defensesystems.com/articles/2015/11/23/future-autonomy-manned-unmanned-teaming.aspx

17. Pomerleau M. Man-machine combo key to future Defense innovation // gcn.com/articles/2015/11/13/dod-human-machine-collaboration.aspx

18. Kott A. a.o. Visualizing the Tactical Ground Battlefield in the Year 2050: Workshop Report // www.arl.army.mil/arlreports/2015/ARL-SR-0327.pdf

19. Guizzo E. Autonomous Weapons «Could Be Developed for Use Within Years,» Says Arms-Control Group // spectrum.ieee.org/automaton/robotics/military-robots/autonomous-weapons-could-be-developed-for-use-within-years

20. Поволоцкий Г. Автономные боевые роботы — будет ли новая гонка вооружений? // interaffairs.ru/news/show/13621

21. Noorman M. a.o. Negotiating autonomy and responsibility in military robots // Ethics and Information Technology. — 2014. — Vol. 16. — I. 1

22. Networks and netwars. The future of terror, crime and militancy. Ed. by J. Arquilla, D. Ronfeldt. — Santa Monica, 2001

23. Arquilla J., Ronfeldt D. Swarming and the future of conflict. — Santa Monica, 2000

24. Arquilla J., Ronfeldt D. The advent of netwar. — Santa Monica, 1996

25. Task Force on the Role of Autonomy in the DoD Systems. June 2012 // sites.nationalacademies.org/cs/groups/pgasite/documents/webpage/pga_082152.pdf

26. Defense Science Board. Summer study on autonomy. June 2016 // fas.org/irp/agency/dod/dsb/autonomy-ss.pdf

27. Bradshaw J.M. The seven deadly myths of «autonomous systems» // jeffreymbradshaw.net/publications/IS-28-03-HCC_1.pdf

28. Hoffman R.R .a.o. Myths of automation, part 2: some very human consequences // jeffreymbradshaw.net/publications/Hoffman-Hawley-54.%20Myths%20of%20Automation%20Part%202.pdf

29. Будущее «войны по-американски» // hvylya.net/analytics/tech/buduschee-vojny-po-amerikanski.html

30. Zenko M. ‘Autonomy’: a smart overview of the Pentagon’s robotic planes // www.defenseone.com/ideas/2016/08/autonomy-smart-overview-pentagons-robotic-plans/130971/

31. Carafano J. Autonomous Military Technology: Opportunities and Challenges for Policy and Law // www.heritage.org/defense/report/autonomous-military-technology-opportunities-and-challenges-policy-and-law

32. Autonomous systems. Issues for defense policymakers. Ed. by A. P.Williams a.o. — Norfolk // www.act.nato.int/images/stories/media/capdev/capdev_02.pdf

33. Чернышев С. Объединенный космический щит // www.globalaffairs.ru/global-processes/Obedinennyi-kosmicheskii-schit-18616

34. Crawford K. Dark days: AI and the rise of fascism // schedule.sxsw.com/2017/events/PP93821

35. Crawford K. Artificial Intelligence’s White Guy Problem // www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html?_r=0

36. Solon O. Artificial intelligence is ripe for abuse, tech researcher warns: ‘a fascist’s dream’ // www.theguardian.com/technology/2017/mar/13/artificial-intelligence-ai-abuses-fascism-donald-trump

37. Crawford K. The Anxieties of Big Data // thenewinquiry.com/essays/the-anxieties-of-big-data/

38. Sample I. AI is getting brainier: when will the machines leave us in the dust? // www.theguardian.com/commentisfree/2017/mar/15/artificial-intelligence-deepmind-singularity-computers-match-humans

39. Переслегин С. Это не просто безработица, а лишение человечества принципиальнго смысла существования. Интервью https://www.znak.com/2017-01-09/znamenityy_futurolog_nyne_zhivuchie_pogibnut_v_adskoy_voyne_lyudey_i_kiborgov

40. Дацюк С. Розмова з С. Переслегіним. Частина 2 «Сюжет історичної гри, як суб’єктний фактор, який грає державами і людьми» // intvua.com/news/politics/1490185669-diyti-do-suti-z-sergiem-datsyukom—ii-chastina-2-syuzhet-istorichnoyi.html

Изображение: Якуб Розальский (Польша)


Пентагон начал создавать киборгов

Пентагон приступил к разработке технологии, которая позволит солдату при помощи имплантируемого нейроинтерфейса подключаться к внешнему компьютеру. Проект получил название NESD (Neural Engineering System Design). О создании военных киборгов будущего сообщает сайт ScienceAlert.

Новая программа направлена на разработку связи, позволяющей головному мозгу человека и внешнему компьютеру обмениваться информацией. Проект военных осуществляется в рамках BRAIN Initiative (Brain Research through Advancing Innovative Neurotechnologies), поддерживаемой Бараком Обамой.

Разработкой нейроинтерфейса занимается DARPA (Defence Advanced Research Projects Agency). Он представит собой биосенсор объемом не более одного кубического сантиметра. Интерфейс обеспечит преобразование электрохимических сигналов нейронов в двоичные компьютерные и наоборот.

NESD позволит увеличить возможности существующих нейроинтерфейсов, при помощи которых можно связать компьютер и головной мозг. В планы DARPA входит создание системы, способной взаимодействовать одновременно с миллионом нейронов головного мозга.

Кроме военных применений, американская разработка может найти и мирное применение. Инженеры и ученые надеются использовать NESD для реабилитации и лечения неврологических больных и в интересах синтетической биологии, а также для разработки маломощной электроники.


Армия Израиля развивает робототехнику, чтобы сберечь жизни своих солдат

Заброшенные на территорию врага роботы-мячики приносят разведданные, а управляемые девушками роботы-змеи изгибаются подобно кобре и ведут скрытое наблюдение. Робомулы слушают голосовые команды и тащат на себе оружие, а наготове всегда – вездеходы-амфибии и умеющие уничтожать свои цели крошечные бионические шершни.

Это не будущее, а настоящее ЦАХАЛа – армии, предпочитающей тратить деньги на роботизированную технику, вместо того чтобы подвергать опасности жизнь своих солдат.

Армия обороны Израиля всегда бережно относилась к своему главному ресурсу – жизни солдат. Во имя их безопасности допустимо отменить боевое задание, пойти на дипломатические уступки в переговорах с террористами или же заплатить большие деньги. Например, за то, чтобы использовать в боевых действиях не человека, а дорогостоящего, но хорошо защищённого и потенциально ремонтируемого робота.

Боевые роботы появились на войне задолго до наступления техногенного века. У Вермахта были самоходные радиоуправляемые фугасы «Голиаф», которые широко использовались в 1944 году при подавлении восстания в Варшаве. У Красной армии были «телетанки»-огнемёты ТТ-26, воевавшие ещё в Финскую. Другое дело, что новинки не приживались. И прежде всего, из-за низкого технологического уровня и непомерно высокой цены. Одноразовый тихоходный и уязвимый немецкий «Голиаф» стоил всего в четыре раза меньше 75-мм противотанкового орудия. Живые – к сожалению, до поры до времени – люди противоборствующим сверхдержавам обходились дешевле.

Но у еврейского государства, где каждый житель на счету, с самого основания были другие приоритеты. К ним прибавились благоприятный для инноваций климат в стране и высокий процент квалифицированных технических специалистов, что позволило Израилю стать одной из передовых стран по используемым в армии роботам. А месяц назад Министерство обороны страны вообще выразило свою готовность к масштабной роботизации армии.

В «Беспилотном плане Израиля», который представил глава военного научно-исследовательского бюро (МАФАТ) и бригадный генерал Нир Халамиш, пересекаются два важных положения доктрины ЦАХАЛа – война малой кровью и оперативное оснащение войск современным оружием. В основу новой тактики роботизированной войны ляжет опыт успешного использования ЦАХАЛом существующих беспилотных разработок, отметил генерал. Их у израильской армии уже сегодня гораздо больше, чем у других. Ниже представлены самые яркие и перспективные.

Бронеавтомобиль Guardium

Бронеавтомобиль GuardiumБронеавтомобиль Guardium

Всемирную известность получил лёгкий патрульный бронеавтомобиль Guardium, созданный военным стартапом GNius на шасси типичного багги Tomcar. Подразделения Guardium успешно патрулируют границу с Сектором Газа с 2011 года. В августе 2012-го они несколько суток охраняли пролом в Заборе безопасности, пока его ремонтировали, затем принимали участие в операции «Нерушимая скала». Вездеход футуристического вида способен решать целый ряд боевых задач – от патрулирования периметра до конвоя транспорта и разведки.

Оснащённый навигационными и компьютерными системами автомобиль развивает скорость до 80 км/ч, может быть укомплектован боевым модулем с пулемётом калибра 7,62 мм или 40-миллиметровым автоматическим гранатомётом. Примечательно, что в подразделениях операторов Guardium и других беспилотных техсредств служат преимущественно девушки. Основные критерии отбора в операторы боевых роботов – высокий уровень компьютерной грамотности и водительский опыт не менее 3 лет.

Внедорожник GNius Patroller

Внедорожник GNius PatrollerВнедорожник GNius Patroller

Guardium – далеко не единственная успешная разработка GNius, «дочки» оборонных предприятий «Таасия Авирит» и «Эльбит Маарахот». В этом году ему на смену в войска придёт новый UGV Patroller, построенный на базе Ford F-350 Super Duty Truck. Соответственно увеличится мощность и грузоподъемность. Мощный, быстрый и хорошо защищённый Patroller можно использовать как автомобиль огневой поддержки и автономное техническое средство для ведения наступательных и штурмовых операций. Боевой модуль Patroller предусматривает установку крупнокалиберного пулемёта или автоматической пушки.

Робомул Rex

Робомул RexРобомул Rex

Автономные самоходные платформы Rex в ЦАХАЛе называют «робомулами». В 2009 году Rex был создан концерном IAI для перевозки небольших грузов весом до 200 кг. Шестиколесный «мул» с запасом хода без дозаправки в течение 72 часов станет неоценимым помощником подразделению пехотинцев при марш-броске. Rex, как истинный друг человека, понимает голосовые команды: может по приказу остановиться на расстоянии, подъехать поближе или повернуть, куда нужно. Программа, отвечающая за эту функцию, разработана и запатентована специалистами «Таасия Авирит».

Робот-вышка Sentry Tech

Робот-вышка Sentry TechРобот-вышка Sentry Tech

Sentry Tech – те самые роботизированные пулемётные вышки, которые ЦАХАЛ давно использует на границе с Сектором Газа. Были приняты на вооружение в рамках программы Auto Kill Zone. Имеют неуязвимый для стрелкового оружия бронеколпак, внутри которого размещается пулемёт калибра 7,62 или 5,56 мм. В программу системы заложены умения обнаруживать, идентифицировать нарушителя границы и брать его на прицел. Самостоятельно открывать огонь пулемёт не может. Для этого необходима команда от оператора.

Вездеход-амфибия Amstaff

Вездеход-амфибия AmstaffВездеход-амфибия Amstaff

«Амстаф» – основной конкурент Guardium, построенный в результате сотрудничества концерна Rafael и компании Automotive Robotic. Восьмиколёсная машина с пулемётной установкой калибра 7,62 мм находится на ходу девять часов без подзарядки и имеет приличную грузоподъёмность – 850 кг она перевозит на себе и на буксире потянет ещё тонну. «Амстаф» – не только вездеход, но и амфибия, причём способный передвигаться как в надводном положении, так и по дну.

Но главным конкурентным преимуществом вездехода его разработчики называют передовое в сегменте искусственного интеллекта программное обеспечение. Цена «Амстафа» пока кусается. Одна такая машина обходится в 350 тысяч долларов. Однако, как говорят создатели робота, обучить солдата, а потом в случае его гибели выплачивать пособие его близким гораздо дороже.

Беспилотник Hero UVision

Беспилотник Hero UVisionБеспилотник Hero UVision

Дроны используются ЦАХАЛом во всех военных операциях, начиная с 1970-х. Причём не только с целью разведки, как в армиях других стран, но и как бомбардировщики (эскадрилья бомбардировочных беспилотников «Эйтан»). Израильские беспилотники хорошо известны и за рубежом. Особенно крупными партиями идут на экспорт дроны Hermes, их покупают армии Швейцарии и Великобритании. Однако сегодня наиболее перспективная воздушная автономная разработка – беспилотники серии Hero, в 2015 году ставшие фаворитами ряда международных выставок вооружения.

Их ещё называют «дронами в ранцевом исполнении», поскольку самый маленький Hero 30 весит всего 7 килограммов и без труда умещается в рюкзаке оператора. Функция Hero – диверсионные операции и точечное уничтожение живой силы противника. Модификация покрупнее, например Hero120, способна поражать танки и крупные стратегические цели.

Штурмовой робот-сапёр VIPeR

Штурмовой робот-сапёр VIPeRШтурмовой робот-сапёр VIPeR

VIPeR в силу своего непривычного вида и внушительных характеристик – один из самых известных израильских военных роботов. Предназначенная для боевых и саперных операций машина напоминает огромные танки Первой мировой, хотя весит всего 12 кг при габаритах 36x36x22 см. В силу гусеничной конструкции VIPeR умеет преодолевать вертикальные препятствия (например, подниматься по лестнице) и может нести на себе целый арсенал.

Israel Defence Army — all terrain robot Viper

Кроме специальной бесшумной версии пистолета-пулемёта «Узи» с лазерным прицелом, он вооружен мини-гранатомётом, оснащен видеокамерой и приборами ночного видения, микрофонами для прослушки, а также оборудованием для распознавания взрывчатых средств. И да, VIPeR никогда не заблудится. Искусственный разум, которым наделил его разработчик Elbit Systems, всегда подскажет дорогу домой.



Компактный робот-тепловизор для ведения разведки и скрытого наблюдения был разработан инженерами Техниона. Семикилограммовая «змея» оснащена аудио- и видеозаписывающим оборудованием. Робот предназначен для действий в условиях подземелья (например, в канализационных трубах, тоннелях, пещерах) и на открытой местности. Также может служить для диверсионной деятельности, перевозя на себе взрывчатку.

Israeli Military Testing ‘robotic’ Snake

Управляемая дистанционно с ноутбука «змея» двигается с помощью специальных «суставов», которые отвечают за повороты, спуски и подъёмы. Для лучшего обзора приспособление умеет подниматься, подобно встающей перед броском кобре.

Вездеход-разведчик EyeDrive и робот-мячик EyeBall

Вездеход-разведчик EyeDrive и робот-мячик EyeBallВездеход-разведчик EyeDrive и робот-мячик EyeBall

Оба устройства разработки израильской компании ODF Optronics представляют собой боевых роботов-разведчиков. EyeDrive – дистанционно управляемый малогабаритный вездеход для наблюдения. Уже состоит на вооружении в ряде стран, среди которых и Россия. Его младший собрат EyeBall представляет собой резиновый шар размером с теннисный мяч, оборудованный камерами и другими разведывательными средствами. Во время операции «Литой свинец» израильские солдаты забрасывали такие «мячики» на территорию врага, получая от них по связи ценные разведданные.

«Бионический шершень»

Бионический шершеньБионический шершень

В 2006 году израильские учёные произвели сенсацию, заявив на весь мир о создании миниатюрных летающих «роботов-убийц». «Бионический шершень» умеет фотографировать, наблюдать, передавать данные и уничтожать свои цели. Занимавший тогда пост президента Израиля Шимон Перес благословил новую разработку, назвав её «оружием будущего, незаменимым для точечных ликвидаций». Создатели «бионического шершня» пообещали наладить производство в течение нескольких лет. С тех пор прошло почти 10, но никакой информации не поступало. Хотя не исключено, что он давно стоит на вооружении у спецслужб. Афишировать наличие такого оружия может быть не в интересах государства.

По максимуму перевести Армию обороны Израиля на использование робототехники, заменяющей человека в решении ряда тактических задач на поле боя, планируется к 2025 году. Хотя бюджет плана озвучен не был, израильское военное ведомство финансово готово к его реализации. Иначе не стало бы презентовать программу роботизации технологическим компаниям, обозначив при этом основные виды автономного вооружения, наиболее интересующие сегодня Минобороны. Кроме новых беспилотников, на которые спрос стабилен, армия ждёт от участников рынка создания автономных надводных плавсредств и подводных противоминных роботов.

В поэтапной роботизации технопарка ЦАХАЛ не будет ограничиваться применением сугубо военных разработок. Пятилетнюю программу по адаптации существующих гражданских беспилотников для выполнения военных задач Министерство обороны представит в ближайшее время. По словам генерала Халамиша, стратегическая цель «Беспилотного плана» – создание роботизированного авангарда, который бы в боевых операциях на суше и на море «выполнял функцию бампера на несколько сотен метров между нашей живой силой и противником». И, вероятно, тогда постоянно защищающему свою государственность Израилю удастся свести к минимуму число человеческих потерь.


Cолдаты эмоционально привязываются к военным роботам-сапёрам

Не секрет, что многие любители кошечек, собачек и других зверушек относятся к своим питомцам лучше, чем окружающим людям, включая родственников. Оказывается, этот странный феномен привязанности к бездушным тварям распространяется и на роботов.

Американские солдаты из саперных подразделений называют своих роботов-саперов по именам, различают их пол, относятся к ним с сочувствием, а в случае поломки или гибели механизма испытывают печаль и устраивают похороны и даже ритуальный салют. Что касается имен, то многие дают роботу имя жены или нынешней девушки (никогда — прошлой). Некоторые пишут имя на корпусе. При поломке их называют такими эмоционально окрашенными словами как «маленькая бедняжка».

Психологи предупреждают, что неадекватное отношение к технике может повлиять на решения, принимаемые солдатами в боевой обстановке.

Вряд ли офицер решит пожертвовать неприятным ему солдатом, чем любимым роботом Джулией, но кто знает — вдруг такая мысль проскочит у него в голове.

Доктор Джули Карпентер провела опрос 23 саперов, часто работающих с роботами, из различных подразделений армии США. Она выяснила, что при повреждении робота солдаты испытывают по отношению целый спектр эмоций, как отчаяние, гнев и грусть. Многие утверждают, что могут распознать оператора по движениям робота, и раздражаются, если роботом управляют плохо или если робот не совсем слушается управления.

Разработчикам военной техники рекомендуют принять в расчет эмоциональный аспект при создании следующих моделей. Подобная эмоциональная привязанность к предметам — от автомобилей до плюшевых мишек — хорошо задокументирована в научных исследованиях.


Роботизированная подлодка DARPA Hydra для доставки беспилотников

Как известно, американская армия и ЦРУ активно используют беспилотники взаграничных операциях. Для их запуска годятся и обычные авианосцы, и авиабазы по всему миру. Проблема в том, что враг может легко заметить приближение авианосца, а базы покрывают далеко не всю территорию мира и тоже отслеживаются противником.

Подводная лодка DARPA Hydra решает сразу несколько задач: и доставка беспилотников к месту авиаудара, и сохранение скрытности для внезапного нападения, и отсутствие риска для людей, поскольку управление подложкой осуществляется в дистанционном режиме.

Новая идея DARPA выводит возможности полностью роботизированной армии на принципиально новый уровень, когда в боевых действиях не будет принимать непосредственного участия ни одного человека. Фактически, это будет война людей и машин, причем машины будут на стороне США, ибо остальные страны сильно отстают по разработкам в области боевых роботов и имеют гораздо более скромные военные бюджеты, чтобы угнаться за американским техническим прогрессом.

Пока что проект Hydra находится на стадии технического задания. Обсуждение проекта с заинтересованными подрядчиками агентство DARPA назначило на 5 августа 2013 года. Приглашаются все желающие (кроме иностранных граждан). Предварительная регистрация здесь: https://www.SignUp4.net/Public/ap.aspx?EID=HYDR32E (логин: hydra; пароль: hydra13)


Правозащитники рассказали об опасности создания боевых роботов

Организация Human Rights Watch опубликовала доклад об опасности создания и использования роботизированных вооружений.

Исследование проводилось при поддержке Гарвардской школы права.

Авторы доклада полагают, что боевые роботы не способны отличать мирных жителей от военных.

В докладе, который получил название Losing Humanity: The Case Against Killer Robots (дословно «Теряя человечность: Доводы против роботов-убийц»), в частности отмечается, что машины лишены сострадания и не несут ответственность за причиненный ущерб.

С одной стороны, как говорится в докладе, наличие боевых роботов поможет спасти жизни собственных военнослужащих. С другой стороны, использование роботов вместо людей может облегчить моральную ответственность за развязывание военных конфликтов.

По мнению главы подразделения Human Rights Watch по вопросам вооружений Стива Гуса, автономным боевым аппаратам необходим постоянный контроль со стороны человека.

Как полагают эксперты, подобные вооружения могут появиться в ближайшие 20-30 лет. Вероятно, первыми их представят США, Израиль, Южная Корея, Китай, Германия, Великобритания и Россия.

Напомним, в сентябре текущего года американское космическое агентство NASA выделило восемь грантов на робототехнические проекты на общую сумму в 2,7 миллиона долларов — среди победителей отбора, в частности, разработчики деталей для человекоподобных роботов.

По материалам: Lenta.ru

Как прятаться от летающих роботов

Трудно укрыться от робота стоимостью 4,5 миллиона долларов, который патрулирует небо над головой и оснащён по последнему слову техники. Но арабским экстремистам, которые воюют против вооружённой до зубов армии США, приходится решать эту задачу. Недавно среди документов на брошенной базе экстремистов в Тимбукту (Мали) была обнаружена брошюра (PDF) с описанием 22 способов, как противостоять наблюдению с воздуха, сообщает агентство AP.

Брошюра содержит в том числе простые советы. Например, ставить машину в тени густых деревьев, замаскировать её сверху, чтобы она сливалась с окружающей территорией. Измазать автомобиль в грязи. Не использовать беспроводные коммуникации.

Есть и более технологичные рекомендации. Например, рекомендуется применять портативный радар для отслеживания беспилотников. Прибор российского производства стоит около $2600. Есть также российские приборы для создания помех в коммуникациях беспилотников.

Экстремисты принимают во внимание, что роботы обычно летают по установленным маршрутам и делают видеосъёмку. Картинка поступает в центр управления, где её анализируют операторы. Обычно не используется система компьютерного распознавания образов или датчики движения, так что замаскировать автомобиль можно относительно простыми способами.

Беспилотные летательные аппараты пока применяют только в военных операциях, но полиция США тоже вынашивает планы использовать их для патрулирования городов и слежки за гражданскими лицами. Естественно, в этом случае роботов не будут оснащать тяжёлым вооружением. Несмотря на вполне мирные цели, использование летающих роботов в городах вызвало озабоченность у Фонда электронных рубежей и других правозащитных организаций. Они считают, что развёртывание инфраструктуры для беспилотников на территории США происходит без достаточного информирования публики.

На карте отмечены города США, где полиция и другие организации получили лицензии на использование беспилотников.

Морской робот для обнаружения подводных лодок

Научно-исследовательское подразделение DARPA выделило финансирование в размере 58 миллионов на создание футуристических кораблей Anti-Submarine Warfare Continuous Trail Unmanned Vessel (ACTUV) в стиле «Звёздных войн». Такие корабли выходят в рейс без экипажа на борту и способны патрулировать территорию без человеческого участия или под управлением удалённого оператора.

Задача ACTUV — искать вражеские подводные лодки, что он делает при помощи мощного гидролокатора. Фактически, это большой плавучий сонар, который предполагается использовать для целей сопровождения и патрулирования в миссиях продолжительностью 60-90 дней.

Разработкой корабля занимается компания Science Applications International Corporation (SAIC). Военно-морские силы США рассчитывают начать испытания корабля ACTUV в середине 2015 года.

All about Cyber War / Все о Кибер Войне