cd&e conference berlin 16 18 nov 2015 - nato...tuesday 17th november pm: panels addressing...

30
CD&E CONFERENCE BERLIN 16 – 18 NOV 2015 COUNTER UNMANNED AUTONOMOUS SYSTEMS SEMINAR: 17 NOV & 18 NOV AM Location: Swissotel, Room TBD Theme of the seminar: Unmanned Autonomous Systems Countermeasures. Rationale: Increasing autonomy embedded in unmanned systems is becoming more commonplace within military and civilian environment. That fact is challenging operational, legal, ethical, trust aspects associated with the development, implementation and use of such capabilities in support of today’s and tomorrow’s conduct of warfare. It is therefore also critical to assess more proactively the emerging potential threats and challenges associated with this technology and to consider the adequate countermeasures. Objectives: Improve the situational awareness about use, technology and legal/ethical aspects Give a concrete example of concept development in HQ SACT according to the NATO’s CD&E process. Addressing challenges (operational, legal…) related to autonomous capability of systems and countermeasures Current and near-future solutions related to the evolution of autonomy into systems to better apprehend future threats and to implement the required and relevant countermeasures Structure: Tuesday November 17th AM: CUAxS as example of NATO’s concept development and experimentation in HQ SACT NATO Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational, legal, ethical, conceptual, trust, experience, vision and reality Wednesday 18th November: Current and near-future solutions at hardware and software levels Attendance: The seminar is focusing at the General officer level and below, or the civilian equivalent. Attendance from the following fields is expected: Concept Development and Experimentation, Table-top war gaming, Research and Development, Science and Technology, Doctrine Development, Military Transformation, Modelling & Simulation, Centres of Excellence, Academia, the Defence Industry and Subject Matter Experts in unmanned and autonomous systems and countermeasures. Attendees can be any authorized organization having an interest in those domains. Security Classification and Language: The program is not classified and is releasable to the public, and is presented and published in English. There are no translation services available.

Upload: others

Post on 28-Jul-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

CD&E CONFERENCE BERLIN 16 – 18 NOV 2015

COUNTER UNMANNED AUTONOMOUS SYSTEMS SEMINAR: 17 NOV & 18 NOV AM

Location: Swissotel, Room TBD

Theme of the seminar:

Unmanned Autonomous Systems Countermeasures.

Rationale:

Increasing autonomy embedded in unmanned systems is becoming more commonplace within military and civilian environment.

That fact is challenging operational, legal, ethical, trust aspects associated with the development, implementation and use of such capabilities in support of today’s and tomorrow’s conduct of warfare.

It is therefore also critical to assess more proactively the emerging potential threats and challenges associated with this technology and to consider the adequate countermeasures.

Objectives:

Improve the situational awareness about use, technology and legal/ethical aspects Give a concrete example of concept development in HQ SACT according to the NATO’s

CD&E process. Addressing challenges (operational, legal…) related to autonomous capability of systems and

countermeasures Current and near-future solutions related to the evolution of autonomy into systems to better

apprehend future threats and to implement the required and relevant countermeasures

Structure:

Tuesday November 17th AM: CUAxS as example of NATO’s concept development and experimentation in HQ SACT NATO

Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational, legal, ethical, conceptual, trust, experience, vision and reality

Wednesday 18th November: Current and near-future solutions at hardware and software levels

Attendance:

The seminar is focusing at the General officer level and below, or the civilian equivalent. Attendance from the following fields is expected: Concept Development and Experimentation, Table-top war gaming, Research and Development, Science and Technology, Doctrine Development, Military Transformation, Modelling & Simulation, Centres of Excellence, Academia, the Defence Industry and Subject Matter Experts in unmanned and autonomous systems and countermeasures. Attendees can be any authorized organization having an interest in those domains.

Security Classification and Language:

The program is not classified and is releasable to the public, and is presented and published in English. There are no translation services available.

Page 2: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

CUAxS SEMINAR AGENDA: 17 NOV & 18 NOV AM

DATE TIME SUBJECT SPEAKER/Moderator TOPIC 16 Nov 15.30 Seminar Scene Setter Major Jean-Claude Deskeuvre,

BEL Army, Project Manager, Concept Development Branch, HQ SACT

Countering Unmanned Autonomous Systems

17 NOV 08.00 INTRODUCTION MAJ JC Deskeuvre, BEL A Countering Unmanned Autonomous Systems HQ SACT approach

UAxS scene setter Dr. Libor Přeučil, CZE Civilian, Czech Technical University, Prague

Unmanned Systems Autonomy, Visions, and Reality

The NATO CUAxS project

Major Jean Claude Deskeuvre

The MCDC CUAxS complementary work strand

Lieutenant Colonel Arthur Kuptel, POL Air Force, MCDC NATO Director, Operational Experimentation Branch, HQ SACT

MCDC CUAxS approach

10.00 BREAK 10.30 The Disruptive

Technology Assessment Game (DTAG)

Mr, Marcel-Paul Hasberg, NLD Civilian, Senior DTAG Expert, TNO, The Netherlands

An experiment mechanism in support of the NATO CUAxS Project

DTAG lessons learned Dr. Andy Williams, NATO Civilian, Analyst, Operational Analysis Branch, HQ SACT

Operational Analysis in support of concept development

Questions & Answers Major Jean Claude Deskeuvre 12.00 BREAK 13.30 The conceptual

approach on highly automated/robotic C2 systems in future operations

Dr. Lieutenant Colonel Jan Mazal, CZE Army, Chief Scientist/Deputy Chief of the Department of Tactics, University of Defence in Brno

Vision on evolving autonomy in Command and Control Systems

The future of Robotic and Autonomous Systems

Dr. Bill Powers, USA Civilian, Research Fellow, Potomac Institute of Policy

Autonomy, ethics and counter robotic operations

NATO Science and Technology Office (STO) approach to unmanned systems

Colonel James Greer, USA Air Force, Assistant Director, Operations and Coordination, NATO STO Collaboration Support Office

NATO STO view

Questions & Answers Major Jean Claude Deskeuvre 15.00 BREAK

Page 3: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

15.30 Operationalizing ethical decision making in increasingly automated non-human subsystems

Dr. Peter Lee, GBR Civilian, Reader in Politics and Ethics, University of Portsmouth

Considerations about ethical aspects

Human-robot interaction in the context of autonomous systems

Professor Tony Balpaeme, BEL Civilian, Professor of Cognitive Systems and Robotics, Plymouth University

Considerations about trust and situational awareness

Legal aspects related to unmanned autonomous systems and related countermeasures

Professor Wolf Heintschell von Heinegg, DEU Civilian, Chair of Public Law at the Europa-Universitäl Viadrina, Frankfurt

Legal aspects

Questions & Answers Major Jean Claude Deskeuvre End at 17.00 18 NOV 08.00 Evolution from

current to future challenges

Mr. Skip Parish, USA Civilian, Chief Operating and Technical Officer, Unmanned Aerial Technologies, PTY, LTD

Challenges in the evolution from remote control to autonomy in the tactical environment

Solutions Dr. Darren Ansell, GBR Civilian, Intelligent Systems Research Group Leader and Head of Aerospace Engineering, University of Central Lancashire

Software implementation of Autonomous Systems – Weaknesses and Vulnerabilities

Solutions Mr Knut Torbjørn Moe Business Development Manager Squarehead Technology AS

UAS Acoustic Detection

Technology Major Jean-Claude Deskeuvre on behalf of Mr. Tom Keeley, USA Civilian, President of Compsim LLC

Animated autonomous countermeasures scenario based on KEEL(Knowledge Enhanced Electronic Logic) technology

Questions & Answers Major Jean Claude Deskeuvre 10.00 BREAK 10.30 Solutions Mr. Pavel Mikunda, CZE Civilian,

Technical Director, VOP CZ, s.p. Present tactical robotic systems for military applications

DEMONSTRATION TAROS Practical example of autonomous technology implementation in ground robots

Questions & Answers Major Jean Claude Deskeuvre Wrap-up Major Jean Claude Deskeuvre 12.00 END & LUNCH

Page 4: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

The Future of Robotic and Autonomous Systems: Autonomy, Ethics, and Counter Robotics Operations 

By Dr. E. W. Powers, Research Fellow, Potomac Institute for Policy Studies, Center for Emerging Threats, and Opportunities,  Futures Assessment Division, Marine Corps Warfighting Laboratory 

 Introduction  Robotic and Autonomous System (RAS) development is in its infancy; we are on the verge of an explosion in both capability and diversity. The future of this explosion is destined to come from the commercial sector rather than be forced by military requirements. The expansion of RAS in the military is assured but will be tempered by several issues to include the level of autonomy that is desired and ultimately approved for various systems, the legality and ethics of their employment, and the certain threat we face from adversaries who will capitalize on the success of our systems. Meanwhile, the commercial sector will see technological leaps in robotic capabilities, particularly in machine learning and autonomy that will translate to increased capabilities for military RAS and for employment by non‐traditional adversaries. 

 Background information  The potential exists for RAS to become an integral part of every military scenario across the range of military operations (ROMO). As of June 2015 there were more than 2400 different unmanned aerial systems (UAS) available from more than 715 companies; more than 700 unmanned ground systems (UGS) from 295 companies; and more than 740 unmanned maritime systems (UMS) from 281 companies. The U.S. DoD is focused on four primary areas: reconnaissance and surveillance, target identification and designation, counter mine warfare, and chemical, biological, radiological, nuclear, and explosive weapons (CBRNE). Additionally each of the services has outlined their priorities, which expand upon the DoD requirements depending upon the domain and the operational scenario. 

 Current status and challenges  There are three issues that must be resolved as we expand our use of RAS in military operations. 

Autonomy1 is probably the most contentious issue regarding RAS. The views range from a complete ban on all autonomous RAS to one of it being imperative to use autonomous RAS in certain narrowly defined scenarios. We need RAS for which we can define the level of autonomy based on the mission, the threat to our forces, and the potential of collateral damage, especially to non‐combatants.  

Ethics and law regarding military employment of RAS, particularly UAS, that are not considered fully autonomous have been deliberated and in most cases contentiously settled. However, as we increase the autonomous capabilities of RAS these issues will continue to be hotly debated. The views regarding autonomy, particularly in Lethal Autonomous Weapons Systems (LAWS), seem to be diametrically opposed but based on which domain is being discussed – air, ground, or maritime – there seems to be a middle ground that may make the solution easier than many people think. 

                                                            1 Autonomy can be defined in numerous ways.  

Page 5: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

Counter Robotic Operations are a reality. Other nations and non‐traditional adversaries have been actively acquiring their own platforms, which raises the near‐certainty that we will soon face a RAS‐equipped opponent. As retired U.S. Navy Captain Wayne P. Hughes has stated, “We can say whatever we want, but our opponents are going to take advantage of these attributes; that world is likely to be sprung upon us if we don’t prepare ourselves.”2 There are several programs throughout the DoD that address this issue, such as the Black Dart and Blue Knight exercises. The reality is that we must be able to detect, identify, and take appropriate action against enemy RAS. 

Possible way ahead  The future seems to hold a steady decline in procurement of existing military systems and very little research and development for new systems that are not already in some stage of development, such as Unmanned Carrier Launched Airborne Surveillance and Strike (UCLASS) and nEUROn. From fiscal year (FY) 2014 to 2015 the U.S. saw a 7.2% decrease in RAS funding. Across the Future Years Defense Program (FYDP) the decreases in funding are forecast to continue and possibly accelerate. Part of the problem stems from the numerous systems that were procured and deployed to combat but are not programs of record (POR). The dilemma is what to do with systems that have functioned well operationally but do not have the training, education, and sustainment resources attached to them that are required to maintain and train with them in peace time. Robotics will continue to revolutionize just about every aspect of military operations. As RAS become more capable, the U.S. military will have to reevaluate the role of individual service members in both combat and peacetime operations. The ubiquity of RAS will mean that our adversaries will also use robotic systems, and they might be willing to go further than we are in giving LAWS complete autonomy. 

 Conclusion  The future of RAS is destined to be refined by the transition from military to commercial use but unlike the past, where government requirements drove technological development, global commercial interests will drive the direction and the tempo of advances. We must be prepared to take advantage of these advances and ensure that we maintain our technological edge in the development and employment of RAS in the military. 

                                                            2 CAPT Wayne P. Hughes Jr, USN (ret), Dean Emeritus, Naval Post-Graduate School  

Page 6: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

COUNTERMEASURES AGAINST UNMANNED AUTONOMOUS SYSTEMS – LEGAL ASPECTS –  

BY PR HEINTSCHEL VON HEINEGG, STIFTUNG EUROPA‐UNIVERSITÄT VIADRINA  Introduction  Apart from the problem that the concept of autonomy is not sufficiently settled, international law seems to have been overtaken by the technological development and does not provide rules either on autonomous unmanned systems or on countermeasures taken against such systems.   Current Status and Challenges  Legal Status The legal status of unmanned systems, whether autonomous or not, is settled only with regard to unmanned aerial systems, which qualify as military aircraft, if operated by the armed forces and if further criteria are fulfilled. The fact that the status of land‐based systems is still unclear is of minor relevance. However, the unsettled status of unmanned maritime systems (UMS) may prove problematic.   With regard to UMS it is already unclear whether they qualify as vessels or ships. While it is possible to characterize them as sovereign  immune craft, this does not necessarily  imply that they enjoy the same navigational rights (high seas freedoms, transit passage, archipelagic sea lanes passage, innocent passage) as warships.  According to the law of armed conflict unmanned systems are means of warfare, if they are designed or used for attack purposes, i.e. to inflict damage, destruction, injury or death. If designed or used for purposes other than attack, but if used by the armed forces during an armed conflict for military action, they are lawful military objectives. In any event, enemy unmanned systems, which do not constitute private property, are booty of war.  Peacetime Use and Countermeasures In times of peace the use of unmanned aerial systems  is  lawful as  long as the sovereignty of other States remains respected. i.e. if they are operated in either own/allied or international airspace. Hence, international law would not allow interference with such systems. The fact that they are autonomous is irrelevant. Hence, the right to resort to countermeasures is considerably limited.  While  the  use  of  land‐based  systems  does  not  involve  noteworthy  legal  issues,  the  operation  of UMS might  be perceived of as contrary to the law of the sea. Hence, measures against such systems could be based on the law of State Responsibility,  in particular on  the  right of  reprisals.  It  is, however,  far  from  settled whether  the  lack of  a consensus on their legal status would render their use illegal. After all, they would enjoy sovereign immunity, if they are used by the armed forces or other State agencies exclusively for governmental non‐commercial purposes.  Law of Armed Conflict and Countermeasures There  is a growing trend towards a total ban of autonomous weapons systems. Whether the respective  initiatives, which include a resolution by the European Parliament, will be successful remains to be seen. If States agreed on the criterion of ‘meaningful human control’ any autonomous weapons system would be illegal. In other words, they would qualify as illegal means of warfare.   

Page 7: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

At present, unmanned systems, whether autonomous or not and if designed or used for attack purposes, qualify as means of warfare. They would be illegal as such, if they 

‐ caused unnecessary suffering or superfluous injury; ‐ could not be directed at a specific military objective; or ‐ their effect could not be limited as required by the law of armed conflict. 

 If either of these conditions are met, they would qualify as illegal means of warfare. This has to be distinguished from an illegal use of autonomous unmanned systems, in particular a use that violates the principle of distinction.  It is important to note that unmanned aerial systems would be entitled to exercise all belligerent rights because they are military aircraft,  if the respective conditions are met. The  legal status of UMS  is unsettled. Hence,  it  is far from clear whether they would be entitled to exercise the full spectrum of belligerent rights. If not, neutral States might be entitled to take measures against UMS used by the belligerents.  Irrespective  of  the  foregoing,  autonomous  unmanned  systems  will  in most  instances  qualify  as  lawful military objectives. Hence, they are liable to attack, including by cyber means.  Way Ahead  The extent to which countermeasures can be taken against autonomous unmanned systems greatly depends on their legal status, which is unsettled as far as UMS are concerned. Unless autonomous systems are entirely banned by an arms control agreement, the legal status of UMS could be clarified by diplomatic/political action. However, the clearer their status, the less will countermeasures taken against them be in accordance with international law. In any event, it would be useful to differentiate between the various systems that already exist or that will exist in the near future. The issues at stake are less legal than technical/technological. In particular, the question remains whether autonomous systems can be used in a manner consistent with the law of armed conflict.  Conclusions   The  legality of countermeasures against autonomous unmanned systems  is to be judged  in the  light of the existing rules of international law. The fact that they are autonomous (and unmanned) does not justify claims for new rules. However, a clarification of the legal status of UMS would contribute to legal clarity.    Recommended Readings:  

‐ HPCR, Commentary on the HPCR Manual on International Law Applicable to Air and Missile Warfare; available at: http://ihlresearch.org/amw/Commentary%20on%20the%20HPCR%20Manual.pdf  

‐ Tallinn Manual on International Law Applicable to Cyber Warfare, M.N. Schmitt (ed.), Cambridge 2013 ‐ International Law Commission, Draft Articles on Responsibility of States for Internationally Wrongful Acts, with 

commentaries; available at: http://legal.un.org/ilc/texts/instruments/english/commentaries/9_6_2001.pdf  Michael N. Schmitt & Jeffrey S. Thurnher, “Out of the Loop”: Autonomous Weapon Systems and the Law of Armed Conflict, 4 Harvard National Security Journal 231‐281 (2013); available at: http://harvardnsj.org/wp‐content/uploads/2013/01/Vol‐4‐Schmitt‐Thurnher.pdf 

Page 8: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

“SKYflip” 

 The pace of new tactical & applications in future Unmanned Aerial Platforms warfare. (Looking East) 

By Mr W.”Skip” Parish, COO/CTO, Unmanned Aerial Technology, Pty 

 "How Can a Warm Man Understand a Cold Man?" 

Solzhenitsyn's One Day in the Life of Ivan Denisovich: 

Topic Introduction  

The pace of change is nowhere more evident than in the Ukraine war. Unmanned Aerial Platform (UAS) warfare now and in the future for a variety of reasons, is nothing like previous use of UAS weapons systems experience. All new Tactical warfare on the ground, sea and in the air is in rapid and necessary change. 

Background Information 

From the first purpose built UAS during the Vietnam War to current times, operations have been dependent on “time period research and development”, now that as a key factor is no longer paramount. Only the large Nation States were equipped to develop the necessary sensors and air frames for flight which stemmed form a desire to provide long term surveillance of ground movements and order of battle.   During current times there has been a rise of unrelated converging technology that changes the tactical use of UASs, found in Civilian Markets.  Low production costs, Low or no development times, and common access to technology, these factors have now broken the hold on access and development,  once the sole province of only the most highly funded military research programs.   Recent battlefield actions have proven that the most expensive air defence units, highly effective against theater wide aircraft,  are  no match  for  the  new  entries.   Given  the  case  for  historical  new  tactical warfare  deployment,  the innovation of technology and the ability of one contested side to carry out Asymmetric warfare, is key to survival and victory.     Challenges & Solutions:  

“ChangeMaster” in evolving technology from outside the Military industrial community have joined forces with military necessity to form rapid field deployment solutions.  Systems capability in some cases is beyond human ability to “fly” the air devices as they can out fly human sensory response.  Robust “Shrinking” of sensors now allows great variations in payloads.  

Along with payloads the airframes have become a fractional form factor of size & weight that they were when the US Predator UAS was introduced for military over 20 years ago.  There are pure science UAS rules of engagement as to aerospace physics, they in turn promote new tactical process on the battle field. The battle field itself is now three dimensional, bit‐mapped geospace and warfighters are having to align themselves with tactical engagement similar to Undersea Boats in 3‐D tactical space. 

Page 9: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

“Sleeping” and “perched” UASs represent new tactical, while descriptive words are created to describe tactical use. New  tactical  has  applications  such  as,  “SKYflip”,  “Whack‐A‐Mo”,  “Talker”,  “Wave  Rider”,    and  “Go‐Home”  all countermeasures in battle areas, which define the future of UAS warfare.   Pilots without personal  risk  at  remote  locations  are harder  to  command  and  to  follow  Rules of  Engagement  for command.   Now comes the  importance of “Rules of Engagement” for C2  in orderly battle plans.   Computers  fly  in second’s mission objectives and “intuitive” tactical knowledge can be placed on air devices for “collective” mission success.  

The Way Ahead and Conclusion: 

Innovation both in fielding solutions and on the battlefield is the way to survive fast reaching new technology change, ubiquitous  and  easy  access  sources  account  for much of  this. Perception of what  is  and what  is  in  the  future  is tempered by the experience of known events. Current events for dominance of air space require us today to be able to project into our future.  We are at the start of massive use of autonomy in warfare, commanded actions at all levels of the warfighters with  low cost production.   Reformatting of command forced by ubiquities of supply,  low cost of autonomy devices, and new tactical are the “ChangeMasters” of method in winning battles. Manpad UAS, carry many of the previously large payloads, in sensors, arms, and tactical ability, as technology defines smaller size and increased capability. The evolution of UAS is now down to the ground warfighter and trending into massive deployment. Our future brings us now to counter/counter measures passing CUAxS in a single step. (CUAxS2)   Basic “laws” of UASs in flight must be mastered for decision makers to create innovation where they “fit into missions”, and where they do not. Applications of UASs with older weapons has proved to be a key factor in battle success.    Open minds and attitudes, which at times are counter to an orderly army, must be interfaced into command just to meet the current changing technology challenges.   

Read Ahead References  

As command you will find the balance and solutions because you must to win.  Attached is a list of Read Ahead items that will help frame discussions on this topic.  OSINT/Internet  Sources   http://staff.washington.edu/paymana/papers/globecom01_2.pdf   Key Driver in “intuitive” mission goal setting for UASs.  http://www.dtic.mil/ndia/2012targets/WParish.pdf      See “Skip’s Laws” http://www.aaai.org/ocs/index.php/AAAI/AAAI10/paper/viewFile/1864/2249    Algorithms for efficient targeting and surveillance.  http://www.defense.gov/transcripts/transcript.aspx?transcriptid=5044   US SECDEF comments on what is worth keeping..ie. technology.  http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf  US Weapons Directive SECDEF US Forces   And a look into what your challenge is today.   http://www.defensenews.com/story/defense/policy‐budget/warfare/2015/08/02/us‐army‐ukraine‐russia‐electronic‐warfare/30913397/ http://www.ibtimes.co.uk/russia‐using‐electronic‐warfare‐cloak‐its‐actions‐syria‐isis‐nato‐1523328 

Page 10: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

1.       Title Operationalizing Ethical Decision‐Making in Increasingly Automated Non‐human Sub‐systems By Dr Peter Lee, Reader in Politics and Ethics, University of Portsmouth  2.       Introduction to the topic The twenty‐first century has seen rapid scientific and engineering advancements in computing, artificial intelligence (AI) and robotics, which have combined to create increasingly sophisticated degrees of automation in weapons and other military and civilian systems. The degrees of automation achieved so far point towards the development of full autonomy in mobile military and other systems, the most high profile of which are remotely piloted aircraft systems/ unmanned aerial vehicles (popularly and problematically called ‘drones’). These developments provide a range of military and other opportunities, while at the same time prompting a range of societal concerns and, in some instances, vociferous public opposition. In the UK, anti‐drone discourse and political lobbying is particularly strong, though much of the opposition appears not to be related to British or even American military activities but is based instead on a combination of actual and alleged activities by the CIA. Consequently, as technologies evolve, increasingly automated non‐human sub‐systems – especially lethal‐capable systems – challenge established moral and legal norms and engender new ethical questions about if, when and how such systems can or should be used. Complicating matters further, the current and future capabilities of artificial intelligence are themselves disputed by experts within that and related fields. In December 2014 Professor Stephen Hawking expressed his concerns about the speed of technological evolution in relation to the speed of biological evolution, stating in interview: "The development of full artificial intelligence could spell the end of the human race." Others are more sceptical of the eschatological language and outlook, seeing significant barriers towards such an imagined nihilistic future. Whichever of the two views eventually comes closest to reflecting reality in the future, progress thus far prompts significant re‐evaluation of how ethical decisions are operationalised in increasingly automated or potentially autonomous sub‐systems, where the human is only one sub‐system as part of a much larger weapon or other system.  3.       Background information The terminology of automated vs autonomous continues – and will continue – to play a key role in shaping not only operational and political aspects of remote operations but the ethical dimension as well. Fully autonomous drones and robots – in the self‐aware, cognisant, self‐developing sense – do not yet exist (and may never be fully realised). However, drones and robots in all walks of civilian and military life are increasingly automated – with a corresponding, reduced need for human input – and add a further dimension to the ways that wars, military intervention and other activities are conducted by states that possess them. In response to these developments, in March 2014 the International Committee of the Red Cross (ICRC) convened a meeting of governmental and independent experts from 21 countries to explore the technical, military, legal and humanitarian issues surrounding future autonomous weapons, given the current trend for rapidly increasing automation in those systems. While there is disagreement between scientists, engineers, IT and AI experts, philosophers and lawyers on what exactly ‘fully autonomous’ weapons and other technologies will look like – and the degree to which they pose an existential threat to the human race – there is widespread acknowledgement that technologies are developing rapidly and that deploying increasing levels of automation in weapons and other systems will prompt new and evolving ethical considerations.  4.       Challenges and current solutions  Currently, the UK has stated its intention not to deploy fully autonomous, mobile weapons and technologies (such as a future development of the current Reaper) that do not have a human being included in the decision‐making chain. 

Page 11: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

However, even before the point of full autonomy is reached – and it remains a point of scientific and philosophical dispute as to whether it can be achieved – it is possible to anticipate high degrees of automation that prompt significant shifts in the ethical calculus of, for example, deploying lethal weapons and conducting lethal strike operations. By operating the Reaper MQ‐9 with the same rules of engagement as it operates manned, strike‐capable aircraft, the UK (like others) has provided a legal and ethical solution that works at the current level of technological advancement but which is unlikely to be adequate for future increasingly automated technologies. Taking a systems approach to highly advanced and automated weapons and other technologies, whereby human input is merely one sub‐system input amongst many, current ethical frameworks need to be reconceptualised in such a way that they can be adopted for, or adapted to, future emerging capabilities.  

One such area of potential dispute surrounds countermeasures – both conventional countermeasures against autonomous or highly automated threats and autonomous/highly automated countermeasures against autonomous/highly automated threats.  Conventional responses to autonomous threats are the least problematic since human input will remain the norm. Highly automated or autonomous countermeasures against other highly automated or autonomous threats are potentially more problematic. Equivalent technology or threat does not necessarily lead to equivalent response. An enemy automated or autonomous threat may well seek to target civilians rather than avoid them. Automated or autonomous countermeasures that are restricted in their range of potential permitted responses (such as not using kinetic attack against an aggressor technology located amongst civilians for fear of harming those civilians) would seemingly incur a tactical or operational disadvantage. That may be a deliberate policy of an aggressor. Therefore, potential responses include: equally disregard human safety (ethically and probably politically unacceptable); limited response to threat (probably not effective); respond with necessary force in a way that is non‐lethal to humans. Since autonomous or automated threats will necessarily have electronic systems to function, an electromagnetic response, for example, could be highly effective without incurring the direct loss of human life that a kinetic response might incur. Further complications would arise if a device was located in the vicinity of, say, a hospital where a counter‐electronic device could simultaneously harm electronic medical equipment, thereby harming or killing humans. Counteracting any subsequent development of partially‐passive, disguised or hidden systems would raise the technological and cost threshold yet again. War’s clash of wills would then be measured in financial and technical cost. Mutually Assured Destruction amongst technological superpowers is a reasonable estimate of outcome. Amongst technical non‐superpowers asymmetric responses may well proliferate depending on the risk/threat/benefit calculation. There may come a time when it is deemed to be too expensive to spare civilian life in a technological confrontation. Then the hard ethical choices and nihilistic possibilities begin.  5.       Possible way ahead Adopting the philosophical assumption that ethical decision‐making has both code‐oriented and individualised dimensions, this paper will explore how increased automation and autonomy shapes, and will continue to shape, a new ethical landscape. To show what the future ethical framework of more highly automated or even autonomous systems might look like, the ‘ethical hierarchies’ of British World War II bombing and bombing policy will be analysed in relation to the current ethical hierarchy supporting the use of the MQ‐9 Reaper by the UK Reaper squadrons in lethal strike operations approved by its government. From this analysis, indicators of what the future ethical landscape of more highly automated or even autonomous systems might look like will be identified. Further, the philosophical tension between deontological considerations (following rules and obligations) and consequentialist considerations (best outcomes, but for whom?) will be addressed.     

Page 12: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

WWII bombing ‘kill chain’  Reaper ‘kill chain’  Autonomous weapon ‘kill chain’ 

1. Winston Churchill (Prime Minister & Defence Minister) 

2. Charles Portal (Chief of the Air Staff) 

3. Arthur Harris (AOC‐inC Bomber Command) 

4. Bomber squadron commanders 

5. Bomber crews  

1. Prime Minister 2. Defence Minister 3. Chief of Defence 

Staff 4. Chief of the Air Staff 5. AOC 1 Group 6. Reaper squadron 

commanders 7. Reapers operators 

 

1. Prime Minister  2. Defence Minister 3. Chief of Defence Staff 4. Chief of the Air Staff 5. AOC 1 Group 6. Autonomous Weapon System 

squadron/military commanders 7. Autonomous Weapon System – 

offensive and/or countermeasures (plus constellation of ethically implicated actors) 

 

 6. Conclusion The paper will conclude that while some elements of code(or rule)‐oriented morality can be incorporated or programmed into evolving technologies and systems – such as lethal strike‐capable aircraft or other robotics – there remains an essential human dimension of ethical responsibility that is not annulled by technology but is relocated to a non‐linear constellation (as opposed to a hierarchy) of ethically‐implicated actors and sub‐systems who enable and deploy that technology: designers, engineers, software programmers, AI developers, military and security intelligence personnel, scientists, weapons manufacturers, policy makers, politicians and others.  

Page 13: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

Highly Automated (Robotic) Command and Control Systems in Future Operations: Conceptual Approach By LTC Jan Mazal, University of Defense, CZE Republic  Introduction One of the most important capabilities of the Armed forces is the ability of rational decision. Decision‐making by these days  could  be  supported  by  advanced  theory  and  technology,  were  the  application  attempts  of mathematical modeling  in  the military  art  have  been  known  for  centuries.  Contemporary  decision making  process  in military environment is similar to its civil equivalent, but with different inputs, outcomes and consequences. Same as in civil management, military commanders are forced to choose optimal solution based on proper weighting of multi‐criteria requirements and with a special respect of such a factors as a time (speed of decision making), the issue of available material resources, unfamiliar environment (terrain, enemy, population, technology), and particularly the factor of possible human causalities. The dynamics of the latest conflicts force the commanders to make the decisions quickly. Most of the decisions are based on experience (empirical‐intuitive decision‐making process), where we could identify wide area of optimization based on real‐time modeling and simulation support. At the beginning of the 21st century, mathematical modeling is commonly used in many areas of industry and business. Disciplines of operations research such as linear or stochastic programming are employed in planning and tactical decision support (what‐if analysis, scenario analysis). Computer support of military applications and processes is not exceptional by these days, however its domain still falls within the areas outside of the direct decision support of the commanders in combat operations (within the military area, mathematical modeling covers e.g. military logistics, target detection, combat simulation, shooting models and also tactical models). Advanced tactical decision modelling and simulation creates the initial step towards the autonomous robotization of the military missions and increase of its effectiveness.   Background information 

The latest trends of the social requirements to the military organizations create a strong pressure on military systems in order to maintain or increase their current capability with reduced investments and staff involvement. This factors leads to the search of innovative approaches, in advance and in all dimensions of operational environment, which will allow us to quickly respond to the rapidly changing reality of the contemporary world and future threats. One of the mentioned approach is advanced (adaptive) computer support of military decision making process in operations.  In context  of  information  technology  development  and  increasing  demands  on  C4ISR,  which  slowly  reach  its technological edge, the next way of tactical and technological future of 21‐st century battlefield are turning to the model based  (Computer Assisted Decision Process)  tactical decision  support with high  level of automatic/robotic execution of specific operational tasks.  Presentation  is  focused  on  explanation  of  basic  concept  and  introduction  of  some  fundamental  operational problems1  of  contemporary  and  future  battlefield  and  implementation  of  autonomous  systems  in  context  of countering enemy/other autonomous systems.    Challenges and current status/regulations/solutions Until now, the decision‐making process of the commander was usually conducted in terms of empirical experience 

and  intuition and most  likely  it will remain  identical  in the near future. Already in the 60s  in the last century, there 

                                                            1 Usually deals with multi criteria optimization on complex operational database, methodology of the input criteria quantification, tactical activities math modeling and mainly objective function development, search for the extremes and analyses of the results.

Page 14: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

appeared a tendency to model specific operational and tactical processes (as a basic elements of high‐level operational AI ). The initial math models have suffered from serious deficiencies relating to a complex data base of the battlefield. The models were unable to deal with a wide range of information cover, what is the key of the operational and tactical decision‐making  processes.  Furthermore,  in many  cases, models were  based  on  very  approximate  assumptions suffering from an information deficit and the solution could not lead to a pragmatic results. By these days, advanced computer support of military decision making process (within algorithmic approach) is still 

a relatively new phenomenon, which is still on the beginning and probably it takes some time to accommodate this approach in the decision‐making process of the commanders on the tactical level. Leading position on that field still keeps the US military. US introduced the revolutionary operational and tactical 

approach called the Deep Green concept  in 2008. Deep Green concept  is  inspired by a Deep Blue supercomputer (1997) and is focused on advanced operational and tactical tasks dedicated to the ground forces of 21st century. This concept is solved through the DARPA Agency (Defense Advanced Research Project Agency). The Advanced Automated Command and Control (AACC) concept, described in the presentation, is a fully or semi‐automated approach to command and control at the tactical level, it is based on the of multi‐criteria decision models following a multi‐level pragmatic solution of a tactical situation and its management (the mission command and control automation generally consists of an iterative process of automated collection of information, analyses, filtering, processing, visualization, information (command) distribution (sharing operational information) and others). It is the fundamental step to the “operational” decision making process algorithmization and its robotic execution, mainly by the autonomous systems.   Possible way ahead New mission management approaches and methods may have a revolutionary impact on understanding the situation and on the concept of military operations in the future. It is important to develop and verify the potential of the new AI operational mission management approach, which could not be considered in the past because of theoretical and technological barriers.  The purpose of described Advanced Automated Command and Control (AACC) concept/research is to find an answer to the question of the applicability of fully or semi‐automated mission control, its effectiveness in comparison with the traditional human‐controlled concept and ability of the “operational AI” transition to the autonomous systems in the future.  Conclusion Optimization of operational and  tactical activities,  though  this  is not apparent at  the  first glance,  is  linked  to  the pragmatic aspects and algorithmic scheme, enabling its advanced automation. The solutions are not usually trivial and the results are necessary to analyze in terms of its stability and assess its pragmatic level.  The relevant results achievement in the framework of the battlefield modeling and simulation lay in the deployment of high  level complexity and “hidden” relations, which previous models did not implement. This condition could be achieved by implementation of the same or higher information overview (scope) of the commander, addressing the tactical problem. If we come from the fundamental nature of the armies and its dedication to the combat activities, then we could notify, that the decision of commanders usually follow the search for an optimal tactical activity, or the sequence of activities leading to assigned tasks competition in the shortest (possibly fixed) time and with a minimum released  effort  or  resources.  This  could  give  the  chance,  in  case  of  appropriate  approximation  and  complex mathematical interpretation of the “virtual battlefield”, to implement math “optimization” apparatus and computing technology to achieve a beater results than a human could do and integrate that feature into autonomous systems “operational” behavior.  

Page 15: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

Solutions to the particular problems are based on a set of individual approaches and could not be unified. The overall concept should be understood as a comprehensive issue, rather than an isolated problem. Currently, there is no universal solution capable of addressing more various tactical tasks, and it is necessary to find adequate (separate) solutions to each problem. The way of individual problem solution usually comes from the weighted integration of tactical analysis linked to the quantification and multi criteria decision making. A general approach to the battlefield modelling can be compared with the large 3D matrix (set) of particular math and tactical models. However, this innovative approach has pushed a previous static concept of information distribution to a new dimension and could provide, at that time, a powerful tool in the planning and combat operation management and maybe more in the future. Even much work was done on that field in previous decades, we are is still on the beginning.   

Page 16: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

Human‐Robot Interaction in the Context of Autonomous Systems 

Prof Dr Tony Belpaeme, Plymouth University, United Kingdom 

[email protected] 

Introduction 

Full autonomy, while being the ultimate pursuit in academic, civil and military R&D into autonomous vehicles, is still a formidable  challenge  and  we  can  expect  full  autonomy  to  remain  out  of  reach  for  several  decades  in  certain applications.  An  exception  to  this  are  Unmanned  Aerial  Vehicles  (UAV),  Unmanned  Surface  Vehicles  (USV)  or Unmanned  Underwater  Vehicle  (UUV).  The  control  of  trajectory  guidance  and,  in  the  case  of  UAVs,  the  flight parameters already are in many cases autonomous, and this leaves opportunities for the development of automated delivery of a payload and the development of Lethal Autonomous Weapons Systems (LAWS). At the moment, decisions related to non‐flight aspects are still taken by people, and it is exactly this “human in the loop” which on the one hand deliver the ability of UAVs to operate in complex domains and on the other hand is a fundamental weak link.  

Background information 

Failures in UAVs have on occasion been technical, but in many cases failures find their origin in human factors; deficits or  lapses  in  individuals’  skill  and  knowledge,  reduced  situation  awareness,  and  lack  of  crew  coordination,  in combination with  failures  caused  by  human  factors  involved  in maintenance  and  operation,  are  the  cause  of  a considerable number of UAV mission failures [1, 2]. 

Challenges and current status 

Situational awareness Due to the restricted remote view on the environment  in which the UAV operates and the limited sensory experience remote operators have, the operators have limited situational awareness. This may also happen when operators are not at all times controlling the UAV, attending to the UAV only at certain times, while other  times  the UAV  is  autonomously  controlled or  controlled  by  another  controlling  entity.  In  addition,  limited knowledge of local conditions can lead to situations where the operator’s judgements are suboptimal. 

Misplaced  trust The actual  autonomy of a  robot or UAV often does not match  the perceived  autonomy,  i.e.  the autonomy subjectively experienced by an operator or by users of a system does not fully match the actual capabilities of the system. This often  leads to misplaced trust  in the abilities of the system,  leading operators assume that the classification, decisions and actions of the system are correct and trustworthy while in reality they are not. 

Dynamic  and  open  environments Most  autonomous  systems  currently  only  operate  in  deterministic  and  closed environment. While some leeway has been made in making simple autonomous systems operate in open and semi‐dynamic environments,  full operational  capability  in open dynamic environments  requires human  tele‐operation. UAVs have a middle ground here, with the air space being relatively unconstrained when flying at mid to high altitude and the terrain in some scenarios being relatively simple to interpret by the operator. However, operations near the ground using dynamic  and open  scenarios will put  considerable  strain on  the  remote operator, making  carefully targeted action difficult. 

Partial autonomy: prospects and countermeasures 

The lack of situational awareness in remote control scenarios has been identified in many different scenarios, including military scenarios  [3]. A  typical solution  is  to  limit  the human‐machine  interaction  to situations  that are  relatively closed and well‐understood by the remote operators. A decision is often made to only deploy UAVs in situations where the remote operator has sufficient situational awareness. SA can be increased through training, experience with the 

Page 17: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

remote control interface and experience with the terrain, its people and its dynamics. Operators who have visited the terrain in which the UAVs operate, and who have intimate knowledge of local situations, will have more situational awareness. 

In addition, there are a number of engineering standards for human factors and ergonomics, but none are available for  remote  control of UAVs. Nevertheless, general purpose  computing  standards  translate  to  some extent  to  the remote  operation  of  UAVs  [4].  However,  more  research  is  needed  into  how  the  remote  operation  in  UAVs, autonomous systems can play a part here, in for example selectively offering information to the remote operator.  

Misplaced trust is often observed in autonomous systems: people tend to anthropomorphise technology, assuming technology to have human‐like qualities and abilities. Technology –in specific remote control stations and UAVs‐ need to be presented in such a manner as to leave the correct perception of abilities and limitations. Operators need to be aware of the technical limitations and uncertainty. Appropriate language needs to be used when describing systems and functionality, language which does not wrongly lead the system to be imbued with qualities it does not have. 

Open  and  dynamic  environments  remain  challenging  for  autonomous  systems  and  this  will  remain  so  for  the foreseeable  future. Progress  in machine perception  and machine  learning  is  gradually  increasing performance of machine at perceiving and making decision based on past and current states, but this are not yet of a nature where autonomous systems can be operated in safety critical environments. 

The three areas mentioned here offer opportunities for countermeasures when dealing with UAVs. Except in the case where the UAV is fully autonomous, e.g. when carrying a payload to a pre‐set coordinate, most high value missions will  involve some form of remote operation of the UAV. Actions to alleviate the above mentioned problems can  in some cases be used to negatively influence a remote operator’s performance. Of particular promise here is the limited situational awareness, which offers opportunities for measures which influence the remote operator’s judgement and ability to respond adequately or timely. 

Full autonomy – prospects and countermeasures 

Full autonomy at this stage is only possible for navigation in unobstructed domains (for example, navigation in air or water). As mentioned above, many of the more critical aspects of unmanned vehicles will have a human in the loop. However, in some situations full autonomy is currently available (terrorist use of unmanned vehicles being of particular concern) and full autonomy is expected to be available in the not too distant future. 

As any autonomous system relies in sensory input, disrupting sensors or the interpretation of data might be way to approach countermeasures. Outdoor navigation will in many cases rely on satellite navigation systems, and denying access to these would disrupt the navigation potential of the vehicle. The challenge here is to deny access to the two (when Galileo launches, three) satellite positioning systems, in time to disrupt the autonomous vehicle, and without affecting positioning capacity for other purposes. Alternative navigation systems are currently  less developed: they rely on visual or range scanning of the environment, and comparing sensor data to stored maps.  

A potentially effective countermeasure lies in the setting up of a volumetric perimeter around a potential target, or sites  from where  autonomous  vehicles might  depart.  Vehicles which  attempt  to  cross  this  perimeter would  be intercepted. This should be possible for low velocity vehicles, but might be more challenging for high speed (e.g. rocket propelled) vehicles.  

References 

[1] Williams, K.W. A Summary of Unmanned Aircraft Accident/Incident Data: Human Factors Implications. (December 2004), DOT/FAA/AM‐04/24, Office of Aerospace Medicine. 

Page 18: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

[2] Johnson, C. W. (2008). The hidden human factors in unmanned aerial vehicles. 

[3] English, T. et al.  (2008) The Safety of Unmanned Systems: The Development of Safety Precepts  for Unmanned Systems (UMS). Naval Surface Warfare Center. 

[4] Waraich, Q., et al. (2013) Minimizing Human Factors Mishaps in Unmanned Aircraft Systems. Ergonomics 

Page 19: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

Counter Unmanned Autonomous Systems (CUAxS) project in Multinational Capability Development Campaign (MCDC)1 2015‐2016 Cycle 

By LTC POL AF Artur Kuptel, HQ SACT, OPEX Branch  

1. Introduction:   a. The MCDC series is a USA‐led multinational transformation force‐multiplier and solution development 

initiative that aims at collaboratively developing and accessing concepts and capabilities to address the challenges associated with conducting joint, coalition and multinational operations. It contributes to multinational capability development by identifying and evaluating potential solutions to coalition and multinational capability gaps, in which ACT has participated for NATO since 2001.  

i. Build and strengthen multinational partnerships and improve interoperability ii. Maximize opportunities for resource sharing (using partner contributions to assist with the 

participating nations and organisations force development efforts) b. The Theme of MCDC 2015‐2016 is: Building and Maintaining Regional Security, multinational and 

coalition partners must have the capability to successfully plan and execute globally integrated efforts to build and maintain regional security, using a global comprehensive approach, in those areas where they have mutual direct and indirect national interests to prevent, deter, mitigate or respond to destabilizing events and activities.  

2. Background information: a. Two Counter Unmanned Autonomous Systems projects are run in parallel (one NATO CUAxS and one 

MCDC CUAxS) and constitute complementary works strands of each other, which allows a strong synergy between both efforts. The NATO project can handle classified information while the MCDC one must remain unclassified. 

b. The MCDC CUAxS Project is one of ten Projects within MCDC 2015‐2016. It has been proposed and is led by NATO Allied Command Transformation. 

c. The intent of the CUAxS project is to develop an overarching concept to explore the potential threats to military and civilian personnel, leadership and facilities and implementing protection and countermeasure solutions; to conduct a study exploring the evolving technology and future operation implications of Unmanned Autonomous Systems (UAxS) in four domains (land, air, sea and C3IS (Cyber)); to explore policy recommendations on priority areas for both future capability implementation and integration with existing assets; develop policy recommendations on priority areas for both future capability implementation and integration with existing assets.  

3. Problem Statement: It is critical to understand the risk and potential threat posed by UAxS to military, civilian leadership and facilities to develop a concept leading to the future implementation of the relevant adequate countermeasures. From a military perspective, UAxS are increasingly becoming part of joint, multinational or coalition operations and have potential to be used across the whole spectrum of operational functions in a range of conflict situations. In addition, they can be used by state and non‐state actors in a defensive or offensive way. The level of autonomy of these systems will vary depending on the evolution of the technology and on the 

                                                            1 MCDC is a series of two‐year‐long campaigns coordinated by the United States Joint Staff J7 and designed to enhance  

the operational effectiveness in joint, interagency, and coalition operations, by undertaking projects dedicated to multinational development of new military capabilities. Each nation contributing to MCDC, as well as EU and NATO,  is represented by one MCDC National Director and one MCDC Executive Steering Group (ESG) Member. 

Page 20: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

legally authorized usage around the world. Furthermore contributing to their growth, these systems constitute a much more affordable capability. 

 4. Challenges and current status/solutions: 

a. This project started in June 2015 and is conducted by participating in a series of workshops and experiments throughout the execution phase. The CUAxS Project plans to conduct two experiments: a Disruptive Technology Assessment Game (DTAG) and a Concept Development Assessment Game (CDAG):  

i. The DTAG allows the merging of a military assessment of a capability with its technological aspects through the use of a table top wargame supported by military and technology subject matter experts. It allows for a standardized evaluation of the technology inputs resulting from research and also allows for data collation and analysis of the information from the assessment game to help improve the CUAxS products (Conducted from 25‐29 Oct 2015). 

ii. The CDAG is a qualitative analytical method employed to test and develop conceptual documents. For the CUAxS Project, this will be used to evaluate Product 2.  The CDAG is a table‐top game that focuses on challenge and discussion of the document. It combines the intellectual freedom of brainstorming with the structured approach and control of a simulation and the challenge of red teaming. 

b. Solution Products/Outcomes:  The proposed solution will be a combination of four products delivered at the end of the CUAxS Project 

i. Product 1: Study Report: UAxS in the Future – Evolving technology, Operational Implications and Opportunities Drawing from the project work strands, this study will integrate findings and describe the use of existing, emerging, and future UAxS to understand the military implications and opportunities for strategy, capability planning, force protection, and the conduct of operations.  

ii. Product 2: Future Operational Concept on Counter‐UAxS (DOTMPLFI). The purpose of the concept is to suggest an implementation path for a future CUAxS capability, integration and interoperability with current and future capabilities, and provide a baseline for helping the Nations address capability gaps. The embedded studies should focus on information concerning available, emerging, and/or required CUAxS technologies. Studies can incorporate a system architecture perspective, showing how the proposed concept could lead to the implementation of a CUAxS materiel solution, and how that solution would exist and be integrated in a typical military operating environment. The concept shall address all related DOTMLPFI domains.  

iii. Product 3: Review of national practices of new technology / system review and national policy and legal regulations. A study report will review national practices of new technology / system review and national policy and legal regulations. The study will investigate processes that determine safety, reliability, legal and performance thresholds, and how this impacts interoperability in joint, multinational or coalition operations. Case comparison analysis may identify best (efficient, effective, affordable) practices.  

iv. Product 4: Policy review of priority areas for both future capability implementation and integration with existing assets. The project will produce an integrated summary report, which identifies key issues and gaps surrounding counter‐UAxS to inform senior defence policy‐makers.   

Page 21: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

5. Way ahead:  Several workshops and the CDAG remain to be completed before the end of the MCDC 2015‐2016 Cycle on 31 Dec 2016.  

a. 15‐19 Feb 16, WS#4 Product 1 finalized; Concept Development; Legal/Best practices (NDL, Netherlands/Amsterdam/Hague TBC) 

b. 11‐15 Apr 16, WS#5 Review Products/Concept Draft/Start Policy Recommendations Report (AUT, Vienna) 

c. 13‐17 Jun 16, WS#6 Review Products; Planning Session for CDAG event (CZE, Prague) d. 12‐16 Sep 16, WS#7 CDAG Concept tested during 1‐week long CDAG event (USA – Dahlgren, VA) e. 17‐21 Oct 16, WS#8 Concept testing, Policy Review Report and CDAG Findings (POL, Gdańsk) 

 6. Conclusion:  MCDC is unique ‐ it is the only existing program focusing on multinational capability development 

with a global Force Development community of both traditional and non‐traditional partners a. A low risk environment (political) within which to actively collaborate in development of interoperability 

and capabilities; b. Flexibility to study new and innovative subjects that have not yet entered the NATO capability 

development process; c. Provides a venue for practical interoperability and capability development collaboration with the EU‐

EDA; d. Products produced within MCDC are neither NATO nor national documents; they are MCDC documents 

free for participating nations and organisation to use as they wish without restrictions.  

Page 22: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

Software Implementation of Autonomous Systems – Weaknesses and Vulnerabilities By Dr. Darren Ansell, Intelligent Systems Research Group Leader & Head of Aerospace Engineering, University of 

Central Lancashire 

This talk and paper introduces a reference architecture for modern autonomous systems software which captures various stages of software processing, from sensing to action, and their associated weaknesses and vulnerabilities. These weaknesses and vulnerabilities can be exploited when developing Counter UAxS approaches.   Machine decision making at the heart of autonomous systems has been around for many years, but its ability to appear 

‘human  like’  in  its behaviours has  to date, been  limited.  Some of  the best examples of human  like behaviour  in 

autonomous systems relate to mobility functions such as balance, movement, climbing and walking or even running.  

Even with  these  highly  advanced  systems,  it  is  still  easy  for  a  novice  human  observer  to  see  the  limitations  in 

performance of these systems. 

When you consider that a human being uses its senses to take in data about the world, thinks about that data in order 

to reason, make plans, make decisions and act on those decisions, this  is a complex chain of steps that are equally 

difficult to reproduce in a computer system, implemented in software. 

If we take each of the steps in turn from the view point of an autonomous system (AS) the AS must be able to use 

sensors to sense and receive information about its environment. In some cases the raw performance of sensors for 

capture of electromagnetic data outperforms human beings ability. Take modern digital cameras for example with 

extremely high many‐mega pixel  arrays. These  systems  can  capture a  scene with enormous  resolution and  focus 

beyond a human’s ability. These systems are not infallible though. Errors can be introduced, external interference can 

add ‘artefacts’ to imagery and equipment can and does fail. Deliberate external means of disrupting or spoofing the 

sensing action can also take place. 

In any event, having sensed or after having received data from another source, the AS must then make sense of it.  

This task of extracting information from the data is complex and challenging. As a human being we can look the scene 

in front of our eyes and immediately recognise objects (we are in fact ‘classifying’ objects into their specific types, e.g. 

chair, table, window, telephone etc). It is very challenging for a machine to do this function accurately. Often image 

processing techniques have to be used which may for example attempt to classify an object by matching it against a 

database of many  thousands of  similar  images  (looking  for  correlation).   Usually  the output  from  these  software 

programmes is a classification accompanied with some form of confidence or error rating. For example the software 

may report that it is 90% certain that it is observing a blue car. Spoofing the system by creating false objects in the real 

world is a key vulnerability. 

Given the uncertainties that will arise, the AS must then piece together the individual classifications in order to make 

a diagnosis of what is actually happening. These next steps are where the machine infers knowledge and what is often 

described  in  the  computer  science world  as  ‘creating  beliefs’.  By  combining  combinations  of  smaller  pieces  of 

information together, the machine will create many beliefs and of course, as these beliefs are built upon uncertain 

source data,  they  too will be uncertain and possibly  incorrect  (spoofing  introduced  in early  stages will propagate 

through the system). A machine may for example, monitor its fuel gauge and the rate at which fuel is being consumed 

over time. If the fuel level falls quickly, the machine could create a belief that it has a fuel leak. However, if the system 

Page 23: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

that was measuring the amount of fuel that is remaining was  inaccurate, then that belief may be untrue and could 

lead to mitigating actions being taken that result in platform loss (e.g. safe ditch). 

The next step an AS must take, is to plan based upon the classifications and beliefs. The ability of a machine to create 

a plan varies enormously dependent on the action that is to be taken, and what source information is needed to form 

a feasible (and safe) plan. Errors can be introduced during the creation of the plan, through poor design in the planning 

software. A machine must make an assessment of how good a proposed future plan is, in order to be able to choose 

whether or not to action the plan. Again corrupting the AS ‘view of the world’ will propagate into the planning process 

resulting in ineffective plans. 

In some AS, the planning functions generate many alternative plans, and the system must choose between them. This 

selection process  is a form of machine decision making, where some software function must be able to look at the 

performance predictions for several plans and select one. The selection process too, can be another source of error as 

the machine may make its selection without full knowledge of e.g. laws, regulations or fully take into account how the 

uncertainties have propagated through the various processing stages, compounding the errors. It is common practice 

for the machine to interact with a human being at this stage, in order to seek authorisation to commit to some plans, 

but this human interaction is only possible when communication links are working – deny the communications and in‐

built constraints could severely limit the freedom of the AS to make decision independently of the human commander. 

If the human designer fails to adequately constrain both the planning process, and the decision making process, the 

system could then commit an unsafe or even unlawful act. 

Many of the better performing software techniques that are often used for ‘classification’,  ‘planning’ and ‘decision 

making’  in the computer science domain are often unpredictable, and may even use random processes  in order to 

function.  In  safety  involved  or  safety  critical  systems,  such  as  flight  control  or weapons  release,  these  software 

functions do not currently have a route to system certification with regulatory authorities. All aircraft safety critical 

software  in operation  today  is entirely predictable  (deterministic),  i.e. given a  certain  set of  inputs,  it will always 

produce the same output). The same cannot be said for many of the advanced computer science techniques that are 

enhancing more general AS technology today. 

For machines to consistently make reliable decisions in a wide range of scenarios, free from human interaction, there 

needs  to  be major  leaps  in  computer  science  and  autonomous  systems  technology.  Today’s  systems  can  only 

demonstrate reliable consistent, trusted performance when placed in known environments which are predictable and 

well understood. The key principle of effective CUAxS then has to be to influence the AS view of its environment as its 

behaviours are directly linked to its interpretation of the outside world. 

 

Page 24: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

1. UAxS: The view from an S&T Perspective by James Greer, Col US Air Force, NATO STO 

2. Introduction to the topic: Research in the area of Autonomous Unmanned Systems is a common topic in most National Labs and Academic Institutions.  The general differences depend on the application and the domain.  This will not be an exhaustive discussion of all the research being conducted, but rather an overview of the Program of Work being undertaken by the NATO Science and Technology Organization as well as some of the drivers that lead the Nations of NATO and its agencies to carry out this research. 

3. Background information: The NATO Science and Technology Organization is comprised of three Executive Agencies, the Office of the Chief Scientist, the Collaboration Support Office and the Center for Maritime Research and Experimentation.  The latter two agencies conduct Science and Technology programs of work that include issues and technologies related to the Design, Test, Operation and Defense Against Unmanned Autonomous Systems for all operational domains. 

4. Challenges and current status/regulations/solutions (depending on your area of interest) 

a. Drones drones and more drones – UAS proliferation is expanding at a precipitous rate.  One source reported that 87 Nations possess UAV, 23 have “more sophisticated” UAV and 30 have armed UAV.  Those last two numbers should raise your eyebrows, as there are at least 7 nations that have armed unsophisticated UAVs. 

b. In the maritime environment, the situation is significantly different.  There are limited examples of nations fielding UUV, but their potential for application is just as great in the underwater domain as it is in the air.  The challenges of underwater remote control and remote sensing stem mainly from the extremely low bandwidth available for free‐swimming underwater vehicles.  NATO’s CMRE is actively engaged in solving some of these challenges. 

5. Possible way ahead: The STO is actively working in the following areas to advance the state of the art or at least to level the Alliance’s understanding of AUxS in the Collaborative Programme of Work (CPoW) where national experts in different fields are conducting diverse strands of work.   

a. The CMRE’s involvement in Autonomous Underwater Vehicles is stronger than ever, delivering studies and tangible solutions to challenges in areas such as Anti‐Submarine Warfare (ASW), Mine Counter‐Measures (MCM), and Maritime Security.  Conceptual studies and basic science work on autonomy are also of value to the “Air” community of interest and thus CMRE is developing capabilities for autonomous environmental data collection in denied or high‐risk areas for use in ISR missions, complemented by remote sensing, either through satellites or aircraft/UAV’s.   

b. One example is focussed on developing new methods for the prediction of Stability & Control issues in aerodynamics. The Task Group AVT‐201 Extended Assessment of Reliable Stability & Control Prediction Methods for NATO Air Vehicles, is developing an overall strategy for creating S&C databases for vehicle simulation under full‐scale conditions, providing a decrease in developmental costs for highly agile UAVs. A result of last year’s discussions was the establishment of AVT‐251 Multi‐disciplinary Design and Performance Assessment of Effective, Agile NATO Air Vehicles, focused on demonstrating the performance of the designed configuration, as defined by mission requirements. Additionally, a symposium on SCI‐269 Flight Testing of Unmanned Aerial Systems was held in Ottawa on 12‐13 May 2015.  

c. Another well‐established strand of work is AVT‐202 Aerodynamics of Micro Air Vehicles. This Task Group is taking stock of previous research efforts, analysing several test cases, and is studying fluid‐structure interaction of abstracted and flight‐relevant wing shapes. The potential establishment of a new activity focused on 

Page 25: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

                           

 

overcoming technological challenges, AVT‐ET‐144 Flight Identification of Flapping Wing MAV’s, is under discussion.  

d. In the TG SET‐180 Analysis and Recognition of Radar Signatures for Non‐Cooperative Identification of UAVs, participating nations are sharing simulation models and organised field measurements campaigns to investigate UAS’s as potential threats and estimate the capacity to identify them, supported by the Collaboration Support Office (CSO), located in Paris, France. A related activity, SET‐200 Electromagnetic Scattering Prediction of Small Complex Aerial Platforms for NCTI Purposes, is also ongoing, while a more conceptual, system‐level study, SCI‐241 Defence from UAS Attacks, will be performed, pending the advancement of studies and efforts of other NATO bodies. 

e. The Specialists Meeting on TG IST‐136 Security Challenges for Multi‐Domain Autonomous and Unmanned C4ISR Systems (AxVx, Robotic Systems Security), will gather Nations, NATO bodies, the CMRE, and the STO Information Systems Technology (IST) panel to look into (cyber) security implications of the vehicles/platforms with the goal of improving efficiency, effectiveness, and survivability. With the UAV field being considered mature enough to produce lessons in relation to interaction of UAV systems with other exploitation or C2 systems, ongoing discussions are focused on starting a cross‐domain activity on “Lessons Learned from UAV Operations for new UAV Systems – Technology, Operational Processes, User Community” (SCI‐AVT‐ET‐020). 

f. As balancing human and machine roles has become  a hot topic due to the introduction of increasing degrees of automation/autonomy, efforts in Supervisory Control and man‐machine integration are now being pursued by TG HFM‐214, Human Systems Integration for Robust Operations of UAV’s and TG HFM‐247 Human‐Autonomy Teaming: Supporting Dynamically Adjustable Collaboration. Additional efforts on systems autonomy include a workshop, TG SCI‐274 Validation and Verification of Autonomous Systems, and a specialists meeting, TG IST‐127 Intelligence & Autonomy (Robotics). The impact of robotics on future operations is being assessed in a holistic analysis by TG SAS‐097 Robotics Underpinning Future NATO Operations, extending from human‐machine integration to the possible obsolescence of existing capabilities. 

g. Finally, as several civil and military authorities do not have a register for UAS’s, TG AVT‐ET‐147 “Airworthiness and Certification Requirements for UAV’s”, is under exploration to create a common set of requirements for the use of military UAS’s.  Well‐exploited studies include TG AVT‐174 “Qualification and Structural Design Guidelines for Military UAV’s”, which established a set of design guidelines leading to significantly reduced cost of acquisition and reduced operational cost due to a higher deployment ratio, more time on‐station, and reduced maintenance costs in the field.  

6. Conclusion: It is essential that NATO and the Nations remain committed to the development of new technologies that keep the Alliance in the forefront of military operations.  One of the most obvious trends in warfare is the steady proliferation of Unmanned Autonomous Systems, to remain abreast of the advances and to counter the threat that they present, the NATO STO is actively engaged in a broad and deep program of work in Autonomy and Autonomous Systems. 

 

Page 26: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

1. Title TAROS - Tactical Robotic System: Military Applications by Ing. Pavel MIKUNDA (CZE), VOP CZ, s.p.

2. Introduction to the topic

The presentation summarized project TAROS - Tactical Robotics Systems – activities realized by CAFR – Center for Advanced Field Robotics. TAROS is the VOP CZ, s.p. project for development, testing and production of unmanned ground vehicles. Project started at 2012 and first UGV demonstrator TAROS 6x6 was presented on IDET 2013 exhibition in Brno (CZE). On the basis of discussion with potential UGV users in CZ Army new concept of modular UGV platform was prepared and presented on Future Forces 2014 exhibition in Prague (CZE). TAROS based systems could play a decisive role on the future battlefield and replace the human soldier in wide variety of tasks. We assume, that, at the first stage the TAROS could serve (for instance) as a testbed for AxS capability testing (important for CUAxS issue) and finally it could be used as an effective system against enemy AxS (sensor carrier, electronic interceptor, ISR or finally combat activities).

3. Background information CAFR was found in 2013 and the mission of this center is to bring together all organizations in the Czech Republic carrying specific know-how in the field of advance robotics and autonomous systems. CAFR partners are VOP CZ, sp., University of Defense in Brno, Czech Technical University in Prague, VŠB - Technical University of Ostrava and Brno University of Technology. TAROS is unmanned terrestrial remote-controlled ground vehicle capable of moving in difficult terrain. TAROS can be equipped with wide range of sensor and weapon components, robotic arm, communication subsystems, logistical superstructure etc. The main tasks of TAROS are especially in direct support of combat operations within mechanized, reconnaissance and special military units. TAROS is able to lead reconnaissance or combat operations (depending on superstructure) and also it is able to focus enemies and their firing positions. The device is intended for using and maneuvering operations in hazardous areas such as covered by enemy fire or their evident occurrence, alternatively for activate or deactivate enemy´s IED, where the device implements risk activities including combat operations and attracts the attention of enemy troops. By these mentioned activities it saves lives of relevant troops, provides immediate information´s superiority over the enemy and immediate combat support. We assume, that, on a future battlefield, these systems will gradually retake the dominance (because of their combat effectiveness – faster, cheaper, more accurate, highly mobile, durable and easily replaceable) over the human soldier and in cooperation with other systems, it will play the key role in “future robotic warfare”. This vehicle belongs to the category UGV (Unmanned ground vehicles).

4. Challenges and current status/regulations/solutions (depending on your area of interest)

TAROS V2 is designed in a modular way. The basic module 4×4 consists of the box, where two driven axles are placed. Both axles have an independent wheel suspensions. Propulsion of the vehicle is provided by electric motors. Each wheel is fitted with the electric motor with gear. The vehicle driving (wheel turning) provide four actuators allowing turning of each wheel individually according to needs. All the key components (battery, control electronics, wireless components) are placed in the same module so that the

Page 27: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

module can be used separately as a fully-fledged vehicle. Thanks to additional modules 2×2E and 2×2D with the same conception of propulsion and wheel driving it is possible to build robotic vehicle TAROS V2 into configuration 4×4, 6×6, 8×8 with the possibility of retrofitting by wide range of accessories such as weapon, robotic or sensor systems.

Remote control / teleoperation - the system includes an operator/control terminal designed for operator stations. Operator terminal is equipped with features for communication and driving of the vehicle, data transmission (video, information about the vehicle etc.), for control power systems and other controls. Thanks to the placement of the operator terminal into rugged peli-case the operator station is easily and quickly deployable. The system includes external antenna which enables greater operating range. Mobile version (remote control) – the tactical army vest with build-in elements. Main challenge on that field is represented by “tactical” AI implementation. This feature is in continuous development and it symbolize the key factor in AxS maturity and CUAxS effectiveness.

Presentation in Berlin: TAROS V2 unmanned ground vehicle in 6x6 configuration with wide range of sensor – only static presentation according lack of space. ORPHEUS (smaller) robot shows some limited functionality - first trajectory defined by remote control and send ORPHEUS on the same trajectory. Presentation advanced autonomous vehicle functions in the PowerPoint presentation and videos from VOP CZ testing areas: - Waypoint navigation – centimeter accuracy - demonstrator will include two stations (operator station -

stationary, which serves as a reference and is part of the operator's workstation and a mobile station located on the vehicle)

- Anti-collision system – system for preventing collisions with obstacles compact driving on a flat surface and generate 2D corridor permeability environment. Both previous in the forward direction of the vehicle with the use of laser measurement sensors.

- Visual navigation - GPS signal lost - demonstrator visual navigation system using optical character natural environment for navigation along a previously learned trajectory in flat terrain, adequate structured environment and under suitable lighting conditions.

5. Possible way ahead

VOP CZ and CAFR member are hardly working on advanced autonomous features. Presentation of the TAROS V2 Roadmap 2015- 2019:

UGV autonomous navigation - means ( TAROS ) integrates the role of environment mapping and localization of the robot in the environment

Tactical Navigation - Collision-Free movement in complex environment respecting the tactical criteria of operational area (deployment of enemy minefields, location of enemy troops, dangerous areas covered by fire, etc.).

UGV exploration and cooperative scenario with other unmanned vehicles (UAVs) (tasks autonomous exploration of environments and supervised perimeter).

Advanced operational task (real-time) solution and C4ISR interaction.

“Operationally-autonomous” functionality testing and development.

Page 28: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

6. Conclusion The current highly automated and robotized systems are already quite a long time established in the air operation domain and when we analyze the experience from the current conflicts, this machines were evaluated as the most effective systems in the war against terrorism on the current asymmetric battlefield. From the military point of view it is analogically expected that autonomous robotic systems will gradually take over the initiative in the other operation domains, especially on land and sea. The number of applications of UGVs, especially systems in military operations is constantly growing. However, the operational use of land-based robotic devices significantly lags behind that of air robotic systems, potential capabilities of existing ground robotic systems can extend far beyond their use by EOD teams or military engineers in area/route clearance operations (which is currently the most common application of ground robots). For instance, the CUAV (Combat Unmanned Air Vehicle) concept has been around for several years, with a very successful operational record, but combat land robots have not advanced beyond the stage of early infancy. Advanced UGV Systems can accomplish certain tasks and make certain decisions independently, without interference with their human operator(s). The core of UGVs is complex and sophisticated algorithm, determining its behavior and intelligence. Abilities of that systems are extended/optimized by mechanical and electronically design, enabling the interaction with operational environment. Such systems will probably have a critical impact on defense and security, and may become decisive to modern warfare. Several UGV (some of them are development or experimental) prototypes with autonomous capabilities are already operational. The deployment of modern technologies in the real conflict clearly showed that these systems and the concepts ensure a higher efficiency and control of the combat and finally lead to the reduction of losses and collateral damage on the battlefield. There is no alternative option in the future operations and these systems will be employed (in future combat) mainly because of its combat effectiveness over the human soldier and ability to resist complex and dangerous operational environment and enemy advanced weapons (AxS). Unreasonable steps and limitation of a research and scientific experimentation on that field could lead to the security disbalance, more soldiers in a risky situations on the battlefield and actually step back to the old fashion military systems.

Page 29: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

Unmanned Systems Autonomy and Ambient Intelligence for Defense Applications: Visions and the Reality 

By Libor Přeučil, Czech Institute of Informatics, Robotics and Cybernetics, Czech Technical University in Prague  Introduction  

Natural expectations from todays’ unmanned systems comprise not only a remote kind of control, but certain level of autonomy has become  inseparable part of  these  solutions. Building  their autonomy  fosters efficiency of  their  in‐mission  applications.  The  lowest  levels  of  autonomy  exhibit  impacts  in  terms  of  systems’  use  safety,  improved precision of control, and removal of cognitive load from operator in kinds of semi‐autonomous modes. This entitled as “Ambient Intelligence” plugged in between the system operator and the unmanned system itself helps to adjust mistakes and failures of the human and keeps him/her in the control loop. This is already well known from automotive applications  like  various  safety or maneuvering  support  systems. The military  application  specifics herein  include handling of environments, that may be extremely hostile, varying, highly complex, uncontrolled and unknown, and with no infrastructure at all. 

The next and  target  level autonomy heads best possible substitution of  the human driver/operator of the system by a cognitive control system bringing the system to higher stages of self‐decision making. Nevertheless, due to the complexity and variety of the real‐world tasks, principal imperfection of present methods of artificial intelligence sets  certain  limits on  their performance.  Therefore,  full  autonomy of  a  system  remains  still  a  long  run  goal  and nowadays approaches still face certain level of uncertainty in operation of systems in fully autonomous modes. Since a risk of failing autonomy is always there, a proper use scenario design and a smart involvement of a human supervisor can  resolve  the  problem.  Proper  fallback  procedures  allow  accomplishment  of  the mission  goals  in  the  cases  of functional failures (that happen due to lacking capabilities, not a HW failure). Therefore, the latter approach builds on certain methods of autonomy, combined into specific scenarios may bring the desired target performance to present autonomous systems. Proper designs and elaborated use scenarios allow to build even on approaches that must not be itself absolutely reliable under all conditions in true defense and combat scenarios. 

 

Background information  

System  autonomy  issues  have  ever  been  addressed  under  certain  constraints.  The major  limitations  of  previous methods stand  in requirements for “somehow fully or partly controlled” environments, which is not acceptable for outdoor use at all. Outdoor environments set diversity conditions on scene complexity, its’ variation over time, the level of knowing its’ structure and shape, if knowing it at all. This implies a need of designing autonomy being capable to cope with the environments of this kind: purely natural ones (general landscape), urban, and even human‐oriented ones, including specifics of defense and combat cases.  

  Although  this  task  appears  not  solvable  in  its’  full  complexity  applying  present  methods,  there  are sophisticated  approaches  allowing  to  take  the  advantage  of  smart  combination  of  always  imperfect methods  to overcome the problem. It leads to fostering of situational awareness of an unmanned system and allows detection of malfunctions in the system autonomy and design of fallback procedures to adjust these cases. Besides, involvement of the human factor in the unmanned system control, or its’ supervision, addresses also the legal issues related directly to consequences of the unmanned/autonomous system use 

 

 

 

Page 30: CD&E CONFERENCE BERLIN 16 18 NOV 2015 - NATO...Tuesday 17th November PM: Panels addressing various challenges linked to evolving autonomy of systems and countermeasures: operational,

Challenges, current status and solutions 

Implementation of the features of autonomy improves the systems’ operation efficiency in terms of mission speedup, system safety protection  ‐ via prevention of damaging  it as well as avoiding endangering of  in‐mission personnel. Attaining close to fully autonomous operation with shallow supervision only, or even allowing completely independent operation forms the present efforts in such systems design, development and application scenarios.  

  Building the systems’ autonomy on the basis of existing functionalities,  it becomes practical to be aware of these methods principles, capabilities, and even drawbacks. As the backbone requirements for autonomy comprise the capability to operate the system through the mission scene, the methods of UxV navigation and locomotion control and planning become necessary in the first place. Dependent on the sensors used, kind of the mission environment, task given, these exhibit specific behaviors. As for the unmanned system user, it appears always efficient to be aware of  these methods and  functionalities existence, capabilities and main properties, as well as expected behaviors  in specific use cases, together with their bottlenecks and drawbacks.  

Therefore the presentation aims to bring overall survey of the basic classification of methods of autonomy form  mobile  systems,  and  their  prospective  application  domains.  The  descriptions  will  include  their  principal drawbacks and application hints, together with illustrative use‐cases and experimentation, or simulation results. 

 

Visions and a way ahead 

Today’s systems autonomy is built on sophisticated integration of certain functionalities, that comprise the sensing, cognition  and  locomotion  planning  at  the  first  basic  level.  In  more  advanced  designs  the  aforementioned functionalities may even be spread onto multiple units that may either exhibit embedded behaviors and build swarms, or  may  intentionally  cooperate  and  schedule  their  actions  to  implement  behavioral  strategies  and  tactics. Nevertheless, the everlasting problem of principal insufficiencies of the available methods and tools of autonomous robotics  and  artificial  intelligence,  that  both may  deliver  the  desired  functionalities,  can  be  overcome  by  their exploration in use scenarios, that do count with the possibility of principal functional failures and do offer a fallback solution cases to the  identified problems. To attain these behaviors, a human‐in‐the‐loop or a human supervisor  is typically involved.  

Human  entity  presence  brings  excellent  performance  in  the  fallback  situation  as  the  human  adaptation abilities well address the variety of possible malfunction situations that may occur.  

Yet more automated approach to handling complex situations, which must not appear decidable and therefore may  lead to failures, comprises procedures employing multiple methods at once. Having a multi‐thread concept of cognition, which brings diverse evaluations/opinions in situation cases, a principally simple voting process may provide an optimal final decision. Further reasoning and comparisons of the multimodal knowledge to previous experience may still  improve the final behavior and robustness of the autonomous system  in ambiguous situations, which are typically imposed by the reality. 

 

Conclusion  

Even thought, the todays’ unmanned systems declare high level of autonomy the complexity and variety of their real‐world application still may exhibit use drawbacks in fully autonomous modes. Specifically, in the cases whereas certified completion on the given task is required, these cannot still deliver these services in full and without supervision of a human entity. Fortunately, proper design and use of these systems may compensate these undesired behaviors. The presentation will provide a brief survey of simple, to‐time autonomy functionalities for separate use, or for integration into more complex systems together with explanation of realistic expectations, future developments and visions.  Video trailers from experimentation will be presented.