Архив рубрики: Cyber War

Major hacking stories about Russia and China confirm that this is the age of cyber-war

On Thursday morning, the Department of Justice announced it was charging seven Russian intelligence agents—employed by the Russian Central Intelligence Agency equivalent, commonly known as the GRU—with hacking. The move came hot on the heels of British and Dutch officials accusing GRU agents of hacking investigations looking into chemical weapons attacks in Syria and the 2014 downing of an airliner over Eastern Ukraine. 

The same morning, Bloomberg published a blockbuster reportalleging that Chinese spies had pulled off a far-reaching hardware hack using microchips planted on the motherboards made by a company called Supermicro, which ended up being used by more than thirty firms. Bloomberg describes the hack as “the most significant supply chain attack known to have been carried out against American companies.”

Taken together, the three news stories illustrate that cyber-war is now a major battlefront between great powers

In a press statement, the Department of Justice claimed that “beginning in or around December 2014 and continuing until at least May 2018, the conspiracy conducted persistent and sophisticated computer intrusions affecting U.S. persons, corporate entities, international organizations, and their respective employees located around the world, based on their strategic interest to the Russian government.”

Three of the seven Russian intelligence agents charged by the Department of Justice  were also charged by Special Counsel Robert Mueller for alleged hacking as part of Russian interference in the 2016 election.

At a NATO meeting in Brussels, British Defense Secretary Gavin Williamson condemned alleged Russian cyber attacks on Organization for the Prohibition of Chemical Weapons, which Dutch officials claimed took place in April and were disrupted. Holland has expelled four Russian intelligence officers allegedly involved in the attack.  

“This is not the actions of a great power,” Williamson said. “This is the actions of a pariah state, and we will continue working with allies to isolate them; make them understand they cannot continue to conduct themselves in such a way.”

The Bloomberg story on Chinese microchips shows that Russia is not the only cyber-war threat. As Bloomberg reports, when Amazon investigated servers sold to them by Elemental Technologies, which used the serves of Supermicro, they made a startling discovery: “Nested on the servers’ motherboards, the testers found a tiny microchip, not much bigger than a grain of rice, that wasn’t part of the boards’ original design. Amazon reported the discovery to U.S. authorities, sending a shudder through the intelligence community. Elemental’s servers could be found in Department of Defense data centers, the CIA’s drone operations, and the onboard networks of Navy warships. And Elemental was just one of hundreds of Supermicro customers.”

Source

Малварь Industroyer используется для атак на электроэнергетические компании

В 2016 году украинские энергетические компании «Прикарпатьеоблэнерго» и «Киевоблэнерго» подверглись атаке хакеров, и тогда внедрение вредоносного ПО в промышленные системы закончилось масштабным отключением электроэнергии на западе страны. Позже специалисты обнаружили еще одну атаку на украинские энергосети, в ходе которой злоумышленники распространяли вредоноса BlackEnergy.

Теперь специалисты компаний ESET и Dragos изучили еще одну похожу малварь, Industroyer. Эта сложная и опасная вредоносная программа, предназначенная для нарушения критических процессов в промышленных системах управления, в частности, в энергокомпаниях. Исследователи пишут, что подобное ПО могло послужить причиной сбоя энергоснабжения в Киеве в декабре 2016 года.

Industroyer позволяет хакерам напрямую управлять выключателями и прерывателями цепи на электрических подстанциях. Ущерб от атаки Industroyer может обернуться как простым отключением подачи электроэнергии, так и повреждением оборудования.

Вредонос использует четыре промышленных протокола связи, распространенных в электроэнергетике, управлении транспортом, водоснабжении и других критических инфраструктурах:  IEC 60870-5-101IEC 60870-5-104IEC 61850, и OLE for Process Control Data Access (OPC DA). Данные протоколы создавались десятки лет назад, без учета современных требований безопасности. Фактически злоумышленникам даже не пришлось искать в них уязвимости, достаточно было «научить» Industroyer использовать эти протоколы. Как следствие, любое вмешательство злоумышленников в работу промышленной сети может привести к фатальным последствиям.

Исследователи пишут, что Industroyer имеет модульную структуру. В его составе присутствуют  основной и дополнительный бэкдоры, четыре модуля для работы с коммуникационными протоколами, стиратель данных и DoS-инструмент для атак типа «отказ в обслуживании». Часть компонентов разработана с прицелом на конкретные марки электрооборудования. К примеру, вредонос эксплуатирует уязвимость CVE-2015-5374 для DoS-атак на Siemens SIPROTEC.

По мнению специалистов, возможности Industroyer указывают на высокую квалификацию авторов и глубокое понимание устройства промышленных систем управления. Маловероятно, что подобная угроза была создана без доступа к оборудованию, которое используется в целевой среде. Более того, группировка, стоящая за разработкой Industroyer, может перенастроить программу, чтобы атаковать любую промышленную среду, где используются целевые протоколы связи.

«Недавняя атака на украинские энергокомпании должна послужить сигналом для всех ИБ-специалистов, отвечающих за критические системы, – комментирует Антон Черепанов, старший вирусный аналитик ESET. – Устойчивость Industroyer в системе и его способность напрямую влиять на работу промышленного оборудования делает его наиболее опасной угрозой со времен Stuxnet, нанесшего урон ядерной программе Ирана».

Источник

Боевые роботы наступают: автономия как военно-стратегический концепт

Георгий Почепцов, для «Хвилі»
 

sur209

Мир начал стремительное развитие не только к новому миропорядку, но и к новым технологиям, которые будут создавать этот миропорядок. Среди этих технологических прорывов стоит и развитие искусственного интеллекта. В 1993 г. Вернор Виндж первым заявил об идее технологической сингулярности как о создании вне человека суперчеловеческого разума ([1], см. также [2 — 3]). Он увидел это будущее через 30 лет, считая, что после этого время людей закончится. При этом он считал, что биологическая наука также может усилить человеческий интеллект, тем самым отодвинув это будущее.

Известный футуролог Рєймонд Курцвейл уже сегодня предсказывает, что искусственный интеллект сравняется с человеческим уже через 12 лет [4]. Все это ведет к новым изменениям социального порядка. Так, в соответствии с исследованиями Кембриджского университет 47% профессий США будут автоматизированы в следующие двадцать лет, включая не только рабочие, но и офисные профессии [5]. Однако одновременно происходит падение уровня IQ в мире [6]. Проводятся конференции, призванные очертить возможные виды взаимодействия человека с искусственным интеллектом [7]. Главной проблемой при этом становится этическая. Бывший советник Обамы по проблемам сферы здоровья Э. Эмануэль считает, что потеря работы для человека будет иметь нехорошие последствия , поскольку осмысленная работа является важным элементом нашей идентичности [8].

Известный философ Дэниел Деннет акцентирует принципиальную возможность построения искусственного интеллекта: «Я говорил все время, что в принципе человеческое сознание может быть реализовано в машине. Если разобраться, то мы сами такие. Мы роботы, сделанные из роботом, сделанных из роботов. Мы ужасно сложные, триллионы движущихся частей. Но все они являются не-чудодейственной роботизированными частями» [9].

Автор книг на тему использования искусственного интеллекта, нанотехнологий в военном деле Л. Дел Монт говорит: «Сегодня нет законодательных ограничений по поводу того, как много разума может иметь машина, как взаимосвязано это может быть. Если так будет продолжаться, посмотрите на экспоненциальный рост. Мы достигнем сингулярности в то время, которое предсказывает большинство экспертов. С этого времени главными видами больше не будут люди, это будут машины» [10].

Дел Монт видит опасность в развитии искусственного интеллекта в создании автономного оружия в том, что другие страны тоже создадут такое же оружие в ответ только без мирного протокола [11]. Ядерное оружие было создано, и только одна сторона с тех пор его применила. Теперь все воздерживаются от его использования из-за боязни взаимоуничтожения. Кстати, Россия также активно смотрит в сторону войн будущего [12 — 13].

Если мы посмотрим на интервью ведущих представителей американской военной элиты, то они как раз изучают этот новый концепт — автономию, с которым связывают серьезное будущее. Последствия его внедрения ставят в один ряд с появлением ядерного оружия. Предыдущий министр обороны Эштон Картер, который до этого поста занимался теоретической физикой, был профессором Гарварда, говорит о роли автономии: «Думаю, что это изменит ведение войны фундаментальным образом. Не уверен, что нечто, производимое автономно, сможет соперничать с разрушительной силой ядерного оружия. Я также считаю автономию сложным понятием. Не следует забывать, что когда мы сталкиваемся с использованием силы для защиты цивилизации, одним из наших принципов должно быть наличие человека для принятия критически важного решения» [14].

В принципе, если задуматься, это парадоксально, поскольку создается самое совершенное оружие, способное действовать вне человека, но, как оказывается, ему все равно нужен человек, поскольку без участия человека резко возрастает опасность непредсказуемых последствий.

Глава научных исследований ВВС Г. Захариас, перечисляя автономию наряду с такими прорывными подходам и, как нанотехнологии, лазеры или гиперзвук, говорит: «Автономия не является конкретной системой вооружения, это предоставление новых возможностей. […] Автономия в движении — это то, что мы знаем в качестве нормально робототехники на земле или на море. Но в остальном автономия это помочь в принятии решений. Например, сейчас мы в ручную просматриваем видео в поисках плохих парней, но это, конечно, может делаться в автоматических системах слежения, которые развиваются. Идеей является подключение машин к проблемам big data» [15].

Как видим, речь идет о взаимодействии человека и машины. При этом зам.министра обороны Роберт Уорк акцентирует следующее: «Путь, по которому мы пойдем по развитию взаимодействия человек-машина, заключается в том, чтобы машина помогала людям принимать лучшие решения быстрее» [16 — 17].

По сути это отражено в анализе будущей войны 2050 г., который был сделан достаточно известными специалистами [18]. Кстати, тут есть и такие отдельные подразделы, как «Дезинформация как оружие», «Микротаргетинг», «Когнитивное моделирование оппонента», что вполне интересно и для мирных целей.

Дезинформация, например, обсуждается в следующем разрезе. Раньше солдат получал информацию из достоверных источников. Сегодня, получая информацию из разных источников, солдату требуется оценивать качество этих информационных источников. Микротаргетинг в военном понимании это уничтожение, к примеру, не здания, а конкретного индивида. В качестве примера когнитивного моделирования военные отмечают сегодняшний нейромаркетинг, который позволяет четко ориентировать на конкретные потребности потребителя.

Поскольку доминирующими все это время были технологии, связанные с информационным веком, то авторы считают, что следует думать в этом же направлении, анализируя будущую войну 2050 г.

При этом сразу следует отметить появившуюся в ответ активность о запрете разработок такого оружия, которое будет действовать вне человека [19 — 20]. И это вполне понятно: то, что хотят военные, часто не совпадает с тем, что хочет общественность. Общественная кампания направлена на то, чтобы «остановить убийц-роботов».

Масла в огонь тут могут подливать не столько секретные разработки военных, сколько вполне мирные статьи типа «Обсуждение автономии и ответственности военных роботов», которые, например, печатаются в журнале под характерным названием «Этика информационных технологий» [21]. Развитие технологий не может быть предсказано с большой определенностью, поэтому и возникают соответствующие опасения. При этом констатируется, что автономия не является хорошо понимаемым концептом. Поэтому и возникает опасение, что «никто из людей не будет нести ответственности за поведение (будущих) автономных роботов».

То есть мы видим, что понятие автономии все время вращается вокруг проблемы принятия решений. А это в принципе (и без роботов) является на сегодня проблемой номер один во всех сферах: от бизнеса, когда решение принимает покупатель, и выборов, где решение принимает избиратель, до военного дела.

Авторы статьи об ответственности роботов, подчеркивают, что технологии «позволяют людям делать то, что они не могли до этого, в результате чего они меняют роли и ответственности и создают новые. Такая же ситуация и с роботами. Отслеживая различные пути выполнения задач роботосистемами является базовым для понимания того, как задачи и ответственности создаются и распределяются по всей широкой социотехнической системе».

Следует также вспомнить, что сетевая война, предложенная как концепт Дж. Аркиллой, по сути имела главной характеристикой неиерархический характер боевых единиц (повстанцев), которые могли сами принимать решения, в отличие от армии как иерархической структуры [22 — 24]. Армия сможет их побеждать, только если сама перейдет на сетевую форму существования, в противном случае она всегда будет запаздывать с принятием своих решений против сетевого противника, который делает это моментально.

Первые разработки уже по собственно автономии в рамках министерства обороны появились в 2012 г. [25]. Тогда были поставлены ряд задач, среди которых были и такие:

— определение новых возможностей для более агрессивных применений автономии,

— установление потенциальной ценности автономии для случаев симметричного и асимметричного противника,

— предвосхищение новых опасностей от распространения автономии,

— идентифицировать системные барьеры для реализации полного потенциала автономных систем.

В целом возникающие проблемы в военном деле, из-за которой «на службу» была призван автономия таковы:

— новые формы перегруженности информацией,

— разрывы между ответственностью и авторитетностью,

— сложности в координации общей деятельности, требующей больше людей или полномочий.

В результате через несколько «итераций» дискуссий пришли к четкому пониманию понятия автономии. Это уже взгляд из 2016 г.: «Автономия является результатом передаче решения уполномоченному на принятие решений объекту в рамках конкретных ограничений. Важное различие состоит в том, что системы, управляемые предписывающими правилами, которые не разрешают отклонений, являясь автоматическими, не являются автономными. Чтобы быть автономной, система должна иметь способность сама независимо вырабатывать и выбирать среди разных возможных типов действий для достижения целей, опираясь на знание и понимание мира и ситуации» [26]

Этим определением военные пытаются закрыться от множества пониманий и интерпретаций понятия автономии. Например, выделяют семь мифов автономии [27]:

— автономия — это одномерный объект, который всем понятен,

— концепция уровней автономии не может быть положена в основу, поскольку она просто редуцирует сложность,

— реально нет полностью автономных систем,

— можно избавиться полностью от человеческого участия.

В продолжении этой статьи прозвучали слова, которые можно трактовать как базовую точку отсчета: «Технология, которую часто называют как «автоматизация», а в более продвинутой форме «автономией, сделала современный труд более когнитивно сложным. Теория и исследования в сфере сложных систем демонстрируют широкий консенсус по поводу того, что существенная сложность не может быть уменьшена. Следует признать сложность (и увеличение сложности) стойким и растущим фактом. И иметь с ним дело. Будет опасной ошибкой пытаться избежать сложности с помощью редукционистских представлений и пытаться порождать простые решения» [28].

Из всего этого становится понятным, что не только взаимодействие с человеком является точкой отсчета, но и все возрастающая сложность технологий, которыми человек реально с помощью сегодняшнего уровня знаний не в состоянии справиться. Пока мы находимся на начальной стадии этих процессов. И это видно по ближайшим прогнозам, например, такому: «Если сегодня в США один пилот дистанционно управляет одним беспилотником, то вскоре один человек будет управлять несколькими» [29].

Сегодня уже каждый потребитель информации сталкивается с тем, что объемы информации привели к трансформации понятия правды, факта и под. Мы получили мир пост-правды, в котором разного рода фейки заняли неподобающее им место.

Перед нами возникла та же ситуацию, что и при обсуждении военных проблем. Только у военных все это связано с применением оружия, что напрямую отсутствует в мирных ситуациях, хотя косвенно может вести и к такого рода последствиям.

Из Автономии 2016 г. «вытягивается» такая идея: «Будет более важно постоянно обучать и тренировать людей-пользователей, чем развивать программное и аппаратное обеспечение для автономных систем. «Распространение таких систем уже представлено в частном секторе, где присутствует не так много умных противников, желающих изменить данные или победить противника» [30].

Поскольку на авансцену вышло понимание войны как справедливой, то убийство дроном гражданского человека является проблемой (31], см. также целую книгу на эту тему, где представлены этические, юридические и политические перспективы автономии [32]). При этом программное обеспечение робота все равно будет написано человеком.

Как неоднократно подчеркивается, на человека все равно остается вся ответственность. Поэтому в таких текстах подлинная автономность прячется где-то далеко в будущем. Ср., например, следующее высказывание: «Автономные системы независимы настолько, насколько позволяют их программы, и все равно определение возможностей в данной ситуации лежит на людях-операторах. Поэтому пока органические основанные на ДНК компьютеры не сойдут со страниц комиксов на поле боя, люди-операторы останутся на контроле автономных приложений» [32].

Базовый текст 2016 г. подчеркивает необходимость доверия к системе. При чем подчеркивается, что в коммерческих вариантах нет таких тяжких последствий, которые возможны на поле боя. Отсюда следует невозможность переноса бизнес-практики в военное дело.

В американском анализе будущей войны 2050 г. четко постулируется участие роботов в будущей войне. Там говорится следующее: «Роботы буду обычно действовать командами или роем в боевых действиях 2050 года точно так, как сегодня действуют солдаты. Эти самоуправляемые и/или совместно действующие роботы будут действовать с меняющейся степенью свободы (от активного управления до автономного функционирования) в рамках динамически устанавливаемых правил боя/приоритетов. Рои и команды роботов, как и индивидуальные роботы, будут выполнять разнообразные задачи» [18]. То есть перед нами возникает вполне обыденная картинка трудяг-роботов из фантастического фильма.

Есть еще одна проблема, которую, можно обозначить как необходимость иных конфигураций политических игроков, чем при привычном противостоянии, которое существует до настоящего времени. Эта сложность возникла при разработке лазерного оружия. Один из участников этого противостояния с советской стороны вспоминает: «Напряженная экспертно-аналитическая работа, в которой довелось участвовать и мне, шла за кулисами этой драмы. Нам удалось выйти на более глубокие ее слои. Сразу после выдвижения Рейганом идеи щита, основанного на лазерно-космическом вооружении, мой учитель академик Раушенбах обратил внимание на его непредвиденное новое качество. Впервые в военной истории появляется оружие, для которого скорость нападения сравнялась со скоростью оповещения. Для участия человека в контуре управления не остается никакого временного зазора, гашетку приходится передавать роботам. По той же причине мирное сосуществование двух и более лазерных систем на орбите принципиально невозможно: любой неопознанный космический объект, могущий оказаться носителем боевого лазера, должен быть мгновенно уничтожен. Как разъясняли мы в диалоге с коллегами из Heritage Foundation, вопрос из сферы военной технологии переходит в сферу собственности: у системы лазерно-космической защиты может быть только один хозяин. Тогда речь шла о международной организации, за которой должна быть закреплена монополия на развертывание космического щита. Эта позиция успела приобрести влиятельных сторонников в самом верхнем эшелоне советского руководства и едва не оказалась в центре очередного саммита. Но с распадом страны диалог по проблеме остановился» [33].

Эта та же проблема принятия решений, только в ситуации, когда из-за нехватки времени уже невозможно вмешательство человека, а последствия еще больше, чем в случае боевого робота. Кстати, как известно, были ситуации, причем несколько, когда дежурный офицер с советской стороны не принимал решения об ответном ударе, хотя по радарам, казалось, что США уже нанесли удар первыми.

В заключение о парадоксальной теме, которая также возникла в этом контексте — это искусственный интеллект и фашизм [34 — 36]. К. Кроуфорд обратила внимание на опасность попадания искусственного интеллекта не в те руки. Сегодня мы видим, как развитие искусственного интеллекта идет параллельно с ростом в мире ультра-национализма, правого авторитаризма и фашизма. Она называет эту ситуацию темными временами и ставит вопрос, как защитить уязвимые и маргинализированные сообщества от потенциального использования этих систем для наблюдения, преследования и депортации. Речь идет, например, о работах, где ищется связь между лицом человека и его возможным криминальными действиеми. Именно это она и относит к проявлению фашизма. У нее есть и отдельная работа, анализирующая связку наблюдения с big data [37].

Кстати, Кроуфорд, сама являясь специалистом по big data, скептически относится к идее, что известная сегодня фирма в связи с президентскими выборами в США Cambridge Analytica сыграла решающую роль как в Brexit, так и в избрании Дональда Трампа. Правда, как она считает, в ближайшие несколько лет это станет действительно возможным. Кроуфорд заявляет по этому поводу: «Это мечта фашиста. Власть без подотчетности».

К нашему счастью, все это еще только на горизонте. Может, человечеству еще удастся «повзрослеть». А пока ситуация находится в развитии. Как отмечает Я. Семпл: «Путь к искусственному интеллекту уровня человека долгий и достаточно неопределенный. Все программы искусственного интеллекта сегодняшнего умеют делать только что-то одно. Они могут распознавать лица, звучание вашего голоса, переводить с иностранных языков, торговать запасами и играть в шахматы» [38].

Сергей  Переслегин видит более широкий контекст этой проблемы, когда говорит следующее: «Лем еще где-то в 1975 году довольно убедительно доказал, что система искусственного интеллекта способна преодолеть любые рамочные ограничения, поставленные ее программой. Это не означает, что они все их будут преодолевать, но так ведь и не все люди преодолевают свои рамочные ограничения. Поэтому если искусственный интеллект состоит из совокупности программ, то это еще не значит, что он будет им следовать. И в еще меньшей степени значит, что мы будем способны различить, когда он следует программам, а когда нет. Кстати, американцы осенью прошлого года выпустили на экраны небольшой сериал «Мир Дикого Запада», где они подробно анализируют эту проблему» ([39], см. также [40]).

Мир несомненно станет более сложным, поскольку появляется более сложный инструментарий, в том числе и у военных. Так что роботы также займут места и солдат, а не только офисных работников. Однако автономия в случае военных создает ту проблему, что в отличие от офисных работников эти роботы будут вооружены смертельным оружием. Кстати, можно себе представить и опасность от них для своих собственных солдат в случае каких-либо сбоев в программе, что также вполне возможно.

Литература

1. Vinge V. [Singularity] // mindstalk.net/vinge/vinge-sing.html

2. Vinge V. The Coming Technological Singularity: How to Survive in the Post-Human Era // www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html

3. Vinge V. Technological singularity // www.frc.ri.cmu.edu/~hpm/book98/com.ch1/vinge.singularity.html
4. Kurzweil R. AI will rival human intelligence in 12 years // www.cloudpro.co.uk/business-intelligence/6692/ray-kurzweil-ai-will-rival-human-intelligence-in-12-years

5. Белов С. и др. Дефицит искусственного интеллекта // www.vedomosti.ru/opinion/articles/2017/03/21/681987-defitsit-iskusstvennogo-intellekta

6. Bouee C.-E. What educational aims do we have in the age of artificial intelligence? // www.linkedin.com/pulse/what-educational-aims-do-we-have-age-artificial-charles-edouard-bou%C3%A9e

7. The Next Step to Ensuring Beneficial AI // futureoflife.org/2017/02/02/fli-january-2017-newsletter/

8. Lufkin B. Why the biggest challenge facing AI is an ehical one // www.bbc.com/future/story/20170307-the-ethical-challenge-facing-artificial-intelligence

9. Philosopher Daniel Dennett on AI, robots and religion // www.ft.com/content/96187a7a-fce5-11e6-96f8-3700c5664d30

10. Fathima A.K. New Artificial Intelligence Technology Will Threaten Survival of Humankind: Louis Del Monte // www.ibtimes.com.au/new-artificial-intelligence-technology-will-threaten-survival-humankind-louis-del-monte-1346175

11. Faggella D. Why We Must Hardware AI if We Want to Sustain the Human Race – A Conversation with Louis Del Monte // www.techemergence.com/why-we-must-hardware-ai-if-we-want-to-sustain-the-human-race-a-conversation-with-louis-del-monte/

12. Малинецкий Г.Г. Наука ХХI века и формат войн будущего// warfiles.ru/show-94656-malineckiy-vremya-tankov-ushlo.html

13. Плеханов И. Нанооружие и гибель человечества // inosmi.ru/science/20170321/238918900.html

14. Thompson N. The former Secretary of defence outlines the future of warfare // www.wired.com/2017/02/former-secretary-defense-outlines-future-warfare/

15. Seligman L. Interview: Air Force chief scientist Dr. Greg Zacharias // www.defensenews.com/story/defense/policy-budget/leaders/interviews/2016/02/20/interview-air-force-chief-scientist-dr-greg-zacharias/80424570/

16. Pomerleau M. The future of autonomy has strong human component // defensesystems.com/articles/2015/11/23/future-autonomy-manned-unmanned-teaming.aspx

17. Pomerleau M. Man-machine combo key to future Defense innovation // gcn.com/articles/2015/11/13/dod-human-machine-collaboration.aspx

18. Kott A. a.o. Visualizing the Tactical Ground Battlefield in the Year 2050: Workshop Report // www.arl.army.mil/arlreports/2015/ARL-SR-0327.pdf

19. Guizzo E. Autonomous Weapons «Could Be Developed for Use Within Years,» Says Arms-Control Group // spectrum.ieee.org/automaton/robotics/military-robots/autonomous-weapons-could-be-developed-for-use-within-years

20. Поволоцкий Г. Автономные боевые роботы — будет ли новая гонка вооружений? // interaffairs.ru/news/show/13621

21. Noorman M. a.o. Negotiating autonomy and responsibility in military robots // Ethics and Information Technology. — 2014. — Vol. 16. — I. 1

22. Networks and netwars. The future of terror, crime and militancy. Ed. by J. Arquilla, D. Ronfeldt. — Santa Monica, 2001

23. Arquilla J., Ronfeldt D. Swarming and the future of conflict. — Santa Monica, 2000

24. Arquilla J., Ronfeldt D. The advent of netwar. — Santa Monica, 1996

25. Task Force on the Role of Autonomy in the DoD Systems. June 2012 // sites.nationalacademies.org/cs/groups/pgasite/documents/webpage/pga_082152.pdf

26. Defense Science Board. Summer study on autonomy. June 2016 // fas.org/irp/agency/dod/dsb/autonomy-ss.pdf

27. Bradshaw J.M. The seven deadly myths of «autonomous systems» // jeffreymbradshaw.net/publications/IS-28-03-HCC_1.pdf

28. Hoffman R.R .a.o. Myths of automation, part 2: some very human consequences // jeffreymbradshaw.net/publications/Hoffman-Hawley-54.%20Myths%20of%20Automation%20Part%202.pdf

29. Будущее «войны по-американски» // hvylya.net/analytics/tech/buduschee-vojny-po-amerikanski.html

30. Zenko M. ‘Autonomy’: a smart overview of the Pentagon’s robotic planes // www.defenseone.com/ideas/2016/08/autonomy-smart-overview-pentagons-robotic-plans/130971/

31. Carafano J. Autonomous Military Technology: Opportunities and Challenges for Policy and Law // www.heritage.org/defense/report/autonomous-military-technology-opportunities-and-challenges-policy-and-law

32. Autonomous systems. Issues for defense policymakers. Ed. by A. P.Williams a.o. — Norfolk // www.act.nato.int/images/stories/media/capdev/capdev_02.pdf

33. Чернышев С. Объединенный космический щит // www.globalaffairs.ru/global-processes/Obedinennyi-kosmicheskii-schit-18616

34. Crawford K. Dark days: AI and the rise of fascism // schedule.sxsw.com/2017/events/PP93821

35. Crawford K. Artificial Intelligence’s White Guy Problem // www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html?_r=0

36. Solon O. Artificial intelligence is ripe for abuse, tech researcher warns: ‘a fascist’s dream’ // www.theguardian.com/technology/2017/mar/13/artificial-intelligence-ai-abuses-fascism-donald-trump

37. Crawford K. The Anxieties of Big Data // thenewinquiry.com/essays/the-anxieties-of-big-data/

38. Sample I. AI is getting brainier: when will the machines leave us in the dust? // www.theguardian.com/commentisfree/2017/mar/15/artificial-intelligence-deepmind-singularity-computers-match-humans

39. Переслегин С. Это не просто безработица, а лишение человечества принципиальнго смысла существования. Интервью https://www.znak.com/2017-01-09/znamenityy_futurolog_nyne_zhivuchie_pogibnut_v_adskoy_voyne_lyudey_i_kiborgov

40. Дацюк С. Розмова з С. Переслегіним. Частина 2 «Сюжет історичної гри, як суб’єктний фактор, який грає державами і людьми» // intvua.com/news/politics/1490185669-diyti-do-suti-z-sergiem-datsyukom—ii-chastina-2-syuzhet-istorichnoyi.html

Изображение: Якуб Розальский (Польша)

Источник

Названы страны с самыми высокими расходами на кибервойска

Россия ежегодно расходует на содержание кибервойск 300 млн. долларов.

США, Китай, Великобритания, Южная Корея и Россия вошли в первую пятерку государств, имеющих самые развитые спецподразделения в сфере кибербезопасности для военных и разведывательных целей.

Об этом говорится в докладе компании Zecurion Analytics, которая занимается защитой данных от утечек, пишет Коммерсант.

Отмечается, что такого рода подразделения часто используют для шпионажа, ведения информационных войн и совершения кибератак. В докладе сказано, что ряд операций включает в себя «различные средства воздействия на настроение и поведение населения стран».

Лидером рейтинга являются США – при численности кибервойск в 9 тыс. человек на их финансирование Вашингтон выделяет 7 млрд. долларов. Для сравнения, Россия тратит на эти цели примерно 300 млн долларов, имея в своем распоряжении тысячу специалистов.

В свою очередь Китай стал лидером списка по численности кибервойск – 20 тысяч человек. Самое малочисленное подразделение у Франции – 800 человек.

Pentagon Hackers Are Waging America’s First Cyberwar

U.S. politicians have long threatened America’s enemies with tanks, planes, submarines, and nuclear missiles. Last week defense secretary Ashton Carter leveled a new kind of threat at the Islamic State: hackers. It may signal the start of a new era in warfare and international relations.

There have been leaks about how the U.S. government used the Stuxnet malware to attack Iran. And the U.S. government has enlisted the help of social networks to combat ISIS propaganda. But the Pentagon has not talked openly about using such techniques in war.

Carter broke that silence in a briefing with reporters last week. He said that the U.S. Cyber Command was attacking ISIS communications networks in support of efforts to help local forces take back the cities of Mosul, in Iraq, and Raqqa, in Syria. Cyber Command was established in 2009 and is made up of groups from the various military branches.

Carter later offered more detail about the role of those operations at the world’s largest computer security event, the RSA Conference, in San Francisco. “We are using our cyber [attack capabilities] to interrupt their ability to command and control their forces, to make them doubt the reliability of their communications, [and] take away their ability to control the local populace,” he said. “We’re going to defeat ISIL [as ISIS is also called]. I’m looking for all the ways I can accelerate that defeat.”

People who have tracked the growing influence of computer security on national security say Carter’s comments show the Pentagon is ready to deploy its hackers more often.

Defense secretary Ashton Carter, and chairman of the joint chiefs Joseph Dunford, said last week that U.S. Cyber Command was helping to attack ISIS.

“This is a big moment,” says Peter Singer, a senior fellow at New America Foundation who studies the role of computer security in defense. The policy of not talking about the Pentagon’s ability to deploy computer attacks alongside conventional forces helped minimize their use, he says. In 2011, for example, leaks revealed that the White House determined that computer attacks could disable Libya’s Russian-made air defenses, but decided instead to use cruise missiles.

Keeping quiet about its computer-based arsenal also allowed the Pentagon to save it for a time it really needed it, and avoid the ethical, legal, and policy questions that come with using such techniques, says Singer. Those unresolved questions include what kinds of computer attacks might constitute an act of war, and how to deal with the fact that computer attacks often spread beyond their intended targets, as Stuxnet did.

In the immediate fight against ISIS—where the U.S. is desperate for victory but wary of deploying ground forces—openly deploying Cyber Command hackers could be a good tactic in both military and public relations terms. The Islamic State’s use of the Internet and computers to coӧrdinate is well documented, and the brutal organization has few sympathizers.

“You don’t use your trick plays in the preseason games, you save them for the games that matter,” says Singer. “And there’s a parallel to the Apple vs. FBI case—if you’re going to do something, first choose your case; this is a good case.”

The operations Carter announced, and his willingness to talk about them, will have consequences far beyond the ISIS conflict.

Taking on ISIS, which is much weaker than other potential U.S. adversaries, functions as a training exercise that will help the Pentagon work out how to think about and coӧrdinate cyberattacks, says Ben FitzGerald, director of the technology and national security program at the Center for a New American Security.

It will also help define how computer attacks affect international relations. “Employing cyber capabilities against ISIS shows other nations that we’re willing and able to employ these capabilities—similar to the Russian use of improved cruise missiles early in their Syria campaign,” says FitzGerald.

However, the Pentagon’s coming out of the cyberwar closet also brings administrative challenges. Cyber Command is currently closely tied to the National Security Agency, with which it shares a leader, Admiral Michael Rogers. Carter said at the RSA Conference that in the future it will likely make sense to separate the two and make the hacking division larger and more independent as it became more important to warfighting.

But he added that it wasn’t clear if Cyber Command would eventually become a new service branch, as the Air Force did after aircraft became vital warfighting technology, or stay largely civilian. “I’m not sure how much it’s going to be a uniformed force, a civil force, a contracted force,” he said. “It’s not necessarily a traditional military organization.”

Singer notes that one thing Cyber Command’s adventures in fighting America’s enemies will have in common with previous military efforts is that they won’t always work out. Some of their attacks will fail, cause collateral damage, or publicly embarrass the Pentagon. “That’s the nature of war,” he says.

Source

Документы Сноудена: АНБ готовится к кибервойне

Массовая слежка за пользователями — лишь подготовительный этап в работе АНБ. Согласно новым документам Сноудена, которые опубликовал немецкий журнал Spiegel, спецслужбы активно готовили Америку к кибервойне.

По мнению экспертов АНБ, интернет будет играть важную роль в войнах будущего. Задача заключается в том, чтобы парализовать сетевую инфраструктуру противника, а ещё лучше — и остальную инфраструктуру, которая работает под управлением компьютеров, включая системы водоснабжения и энергоснабжения, заводы, аэропорты, финансовую систему.

Для кибервойны создаётся «цифровое оружие» — вредоносное программное обеспечение. Этот вид вооружения D (digital) предлагают добавить к классификатору ABC (атомное, биологическое, химическое оружие). В отличие ABC, не существует практически никаких международных конвенций, которые бы регулировали цифровое вооружение и его применение.

Как предсказывал великий теоретик Маршалл Маклюэн, «Третья мировая война станет партизанской информационной войной без разделения на военных и гражданских». Похоже, к этому всё идёт.

Армия США, военно-морские силы, морская пехота и военно-воздушные силы — все они основали подразделения для ведения боевых действий через интернет, но именно АНБ возглавляет это движение. Неудивительно, что директор АНБ занимает должность председателя US Cyber Command.

С военной точки зрения, слежка в интернете называется «фазой 0», то есть подготовительным этапом цифровой военной стратегии США. Опубликованные документы АНБ свидетельствуют, что это необходимое условие для осуществления дальнейших операций. Цель — нащупать слабые звенья и уязвимости в системах противника. На последующих этапах происходит установка троянов и бэкдоров в системах противника и получение контроля над ними.

Среди документов, опубликованных изданием Spiegel, присутствуют не только презентации, но и фрагменты исходного кода реальных программ, которыми пользуется АНБ. Например, код кейлоггера Qwerty, одного из модулей универсального шпионского фреймворка Warriorpride.

Другие документы и презентации

http://www.spiegel.de/media/media-35653.pdf
…http://www.spiegel.de/media/media-35689.pdf

(все номера по очереди)

003

004

005

006

007

Роботизированная подлодка DARPA Hydra для доставки беспилотников

Как известно, американская армия и ЦРУ активно используют беспилотники взаграничных операциях. Для их запуска годятся и обычные авианосцы, и авиабазы по всему миру. Проблема в том, что враг может легко заметить приближение авианосца, а базы покрывают далеко не всю территорию мира и тоже отслеживаются противником.

Подводная лодка DARPA Hydra решает сразу несколько задач: и доставка беспилотников к месту авиаудара, и сохранение скрытности для внезапного нападения, и отсутствие риска для людей, поскольку управление подложкой осуществляется в дистанционном режиме.

Новая идея DARPA выводит возможности полностью роботизированной армии на принципиально новый уровень, когда в боевых действиях не будет принимать непосредственного участия ни одного человека. Фактически, это будет война людей и машин, причем машины будут на стороне США, ибо остальные страны сильно отстают по разработкам в области боевых роботов и имеют гораздо более скромные военные бюджеты, чтобы угнаться за американским техническим прогрессом.

Пока что проект Hydra находится на стадии технического задания. Обсуждение проекта с заинтересованными подрядчиками агентство DARPA назначило на 5 августа 2013 года. Приглашаются все желающие (кроме иностранных граждан). Предварительная регистрация здесь: https://www.SignUp4.net/Public/ap.aspx?EID=HYDR32E (логин: hydra; пароль: hydra13)

http://www.xakep.ru/post/60964/default.asp

Android-гаджет для обнаружения снайперов

Армия США давно применяет специальное акустическое оборудование для обнаружения снайперов по звуку от выстрела. Похожие системы вроде ShotSpotter используются в американских городах для быстрого реагирования на городскую стрельбу с вычислением координат выстрела, которые передаются патрульным машинам.

Городская полицейская система состоит из сети звуковых сенсоров. Они регистрируют точное время звука. Собрав информацию с разных сенсоров в разных точках, можно вычислить источник звука.

Группа инженеров из университета Вандербильта, получив грант от компании Google, разработала аналогичнуюсистему обнаружения источника выстрела, но на базе Android-смартфонов.

Изначально они хотели использовать только встроенные микрофоны смартфонов, но у них не получилось из-за встроенной системы шумоподавления и некоторых других технических проблем. Поэтому пришлось сделать специальный гаджет, приставку к смартфону. Гаджет небольшого размера имеет 1-4 встроенных микрофона и точно регистрирует время поступления звуковой волны. Гаджет с одним микрофоном очень маленький, а с четырьмя микрофонами чуть большего размера.

Для определения источника звука нужно шесть географически разнесённых смартфонов с сенсорами маленького размера или два смартфона с большими сенсорами на четыре микрофона в каждом.

Выстрел из огнестрельного ружья генерирует две звуковые волны. Первая распространяется сферически от места подрыва патрона. После вылета пуля двигается быстрее скорости звука, так что вторая звуковая волна имеет коническую форму. Сенсор регистрирует обе эти волны.

Результаты своего исследования специалисты из университета Вандербильта представили в научной работе “High-Accuracy Differential Tracking of Low-Cost GPS Receivers” на конференции ACM/IEEE Conference on Information Processing in Sensor Networks (IPSN) в апреле 2013 года.

Состоялись киберучения НАТО с участием девяти стран

Североатлантический альянс провёл ежегодные учения с отработкой взаимодействия международных сил НАТО в области ИТ. Во время последних учений под названием «Запертые щиты 2013» (Locked Shields 2013) отрабатывалась защита фиктивной компьютерной сети от компьютерных атак.

В учениях приняли участие 250 специалистов, находящихся на 11-ти базах Европы. Организатор мероприятия — компьютерный центр NATO Cooperative Cyber Defence Centre of Excellence (CCDCOE.org), совместно с министерствами обороны Эстонии и Финляндии.

На фотографии — участники учений «Запертые щиты 2013». На столе у девушки справа можно рассмотреть«Таллинский учебник» по применению международного законодательства к компьютерным войнам нового поколения.

Совместные учение CCDCOE проходят с 2008 года. В этом году, кроме Эстонии и Финляндии, в них приняли участие представители Литвы, Германии, Польши, Нидерландов, Италии, Словакии и Испании.

Южная Корея готовится к кибератакам со стороны Северной Кореи

Угрозы со стороны Северной Кореи начали поступать после того, как Сеул и Вашингтон провели совместные военные учения.

Южная Корея усиливает наблюдение в цифровом пространстве в рамках подготовки к возможной атаке со стороны Северной Кореи.

Сеул считает, что угроза вполне реальна и вводит круглосуточный мониторинг телекоммуникационных сетей государства. Корейская система кибертревоги имеет пятибалльную шкалу, третий уровень которой запускается при обнаружении атаки.

Такое решение Южной Кореи связано с тем, что власти Северной Кореи угрожали первой военными действиями, в том числе и в цифровом пространстве, из-за совместных военных учений Сеула и Вашингтона.

Премьер-министр Южной Кореи Чон Хон-Вон (Chung Hong-won) также обратился к представителям государственно Агентства по вопросаминтернетаи кибербезопасности (KISA) и призвал тщательно готовиться к потенциальным атакам.

Интернет-пользователям Сеула советуют обновитьантивирусныепрограммы и сообщать о любых зафиксированных угрозах в KISA.

Напомним, что в прошлом году южнокорейские новостныесайтыбыли подвержены масштабным кибератакам, в которых обвинили Северную Корею.

Подробнее:http://www.securitylab.ru/news/438650.php