28 février 2019

?

La technologie peut créer des surprises sur le champ de bataille. Elle peut dérouter non seulement les combattants, mais aussi les responsables politiques. Les difficultés à suivre le rythme de l’évolution technologique sont même accrues lorsque les politiques sont con?ues dans des forums multilatéraux?qui, par leur nature même, nécessitent une grande patience pour trouver un terrain d’entente et un consensus.

Ces dernières années, les domaines technologiques ont commencé à converger et de nouveaux scénarios d’utilisation ont été créés à la fois dans les domaines civil et militaire. Le domaine de l’intelligence artificielle (IA), jusqu’alors ésotérique, est un exemple parfait. La démocratisation de la puissance informatique, les données massives générées par des appareils connectés à Internet et la baisse des co?ts de stockage et de manipulation des données ont permis de faire sortir l’IA des conférences obscures pour faire la une des journaux et alimenter les discours des dirigeants. Combinées, les techniques, comme l’apprentissage automatique, les grands ensembles de données et la puissance informatique utilisée pour ??entra?ner?? les algorithmes de l’IA, ont permis aux machines d’effectuer des t?ches jusqu’ici réservées au cerveau humain. La défaite de Lee Sedol, 18 fois champion du monde de Go, contre l’algorithme d’IA DeepMind en mars 2016, est un symbole puissant de cette transformation dans l’équilibre entre l’homme et la machine. Il était donc normal que ces avancées en matière d’autonomie intelligente des systèmes numériques attireraient l’attention des gouvernements, des scientifiques et de la société civile concernés par le déploiement et l’utilisation possibles des armes létales autonomes. Il fallait une instance pour débattre de ces questions et commencer à élaborer une vision commune concernant les solutions possibles.

Pendant la guerre froide, la ma?trise des armes classiques a souvent occupé un r?le secondaire par rapport aux armes stratégiques. Ce déséquilibre a persisté, même si les tendances en matière de technologie et de sécurité ont commencé à changer à la fin des années 1990. Le système multilatéral mis en place pour traiter des armes classiques perfectionnées en dehors des régimes de contr?le des exportations ad hoc, comme l’Arrangement de Wassenaar de 1996, est resté relativement peu développé. Heureusement, un instrument se distingue à la jonction du droit international humanitaire et de la ma?trise des armements. Il s’agit de la Convention?sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination (CCAC)1.

La Convention, négociée sous l’égide des Nations Unies en 1979 et en 1980, s’appuie sur les principes du droit international humanitaire comme la proportionnalité et la distinction entre les civils et les combattants. Actuellement, elle comprend cinq protocoles – le Protocole I relatif aux éclats non localisables, le Protocole II sur l’interdiction ou la limitation de l’emploi des mines, pièges et autres dispositifs (tel qu’amendé le 3 mais 1996), le Protocole III sur l’interdiction ou la limitation de l’emploi des armes incendiaires, le Protocole IV relatif aux armes à laser aveuglantes et le Protocole V relatif aux restes explosifs de guerre. Cette conception modulaire permet d’annexer de nouveaux instruments au traité-cadre alors que de nouvelles considérations d’ordre humanitaire concernant les systèmes d’armes apparaissent et que de nouveaux systèmes émergent.

Si les débats sur les armes télécommandées, qui ont eu lieu en 2012 et en 2013 à Genève lors de réunions consacrées aux droits de l’homme, ont permis d’améliorer la prise de conscience2, la CCAC s’est révélée être l’instance privilégiée pour débattre des technologies émergentes dans le domaine des systèmes d’armes létales autonomes (SALA). Sa souplesse, l’équilibre qu’elle encourage entre les principes humanitaires et la nécessité militaire ont permis aux ?tats Membres ayant des points de vue très divergents de commencer à s’investir dans une technologie complexe et en rapide évolution. Sa compétence en tant qu’instrument relatif au droit international humanitaire, ainsi que les Conventions de Genève de 1949 et leurs protocoles additionnels de 1977, l’a rendue attrayante pour tous ceux qui craignaient une érosion des principes liés au droit international humanitaire par les systèmes d’armes autonomes. Le fait que tous les pays ayant des capacités établies ou émergentes en systèmes d’IA – l’Allemagne, le Canada, la Chine, les ?tats-Unis, la Fédération de Russie, la France, l’Inde, Isra?l, le Japon, la République de Corée et le Royaume-Uni – sont des Hautes Parties contractantes à la Convention a été utile. Cela ne veut pas dire pour autant que tous les problèmes étaient résolus. Certains persistaient, comme la stabilité financière. Les arriérés de paiements par les Hautes Parties contractantes ont été source d’incertitude en 2017 quant à la tenue de certaines réunions. Un autre problème concernait la participation de l’industrie et des développeurs de technologies aux débats sur l’autonomie létale compte tenu, entre autres, de la crainte de l’industrie d’être stigmatisée. De plus, la communauté engagée dans la ma?trise des armes classiques avait tendance à considérer les armes en termes de matériaux discrets. Le monde d’Ironman et de Terminator dépeints par Hollywood n’a pas non plus aidé.

Ces questions de conception et de connaissances transversales ont été examinées en premier lieu dans les débats informels de la CCAC à Genève de 2014 à 2016. Le Groupe d’experts informel, dirigé par l’ambassadeur fran?ais Jean-Hugues Simon-Michel, puis par l’ambassadeur allemand Michael Biontino, a fait prendre conscience des différents aspects de cette question – humanitaire, éthique, militaire, juridique et techno-commerciale. Le fait que le règlement intérieur de la CCAC permette la participation d’un ensemble très divers de parties concernées, y compris la société civile, a été un atout, comme le fait que ces questions aient été débattues dans les instances en dehors de Genève. Des débats informels ont permis d’obtenir un consensus sur la création d’un groupe d’experts gouvernementaux (GEG) chargé d’un mandat officiel lors de la cinquième Conférence d’examen des parties contractantes à la CCA en décembre 2016, présidée par l’ambassadeur pakistanais Tehmina Janjua3. Des organisations, comme le Comité international de la Croix-Rouge, ont joué un r?le important dans le niveau de maturité élevé des débats en organisant du 26 au 28 mars 2014 une réunion d’experts sur les aspects techniques, militaires, juridiques et humanitaires de ce qu’on a appelé provisoirement ??les systèmes d’armes autonomes??. L’Institut des Nations Unies pour la recherche sur le désarmement (UNIDIR), l’organisme autonome établi dans le cadre des Nations Unies qui mène des recherches sur le désarmement, a contribué en préparant une brochure ainsi que d’autres documents d’information à l’intention des négociateurs et des chercheurs. Des groupes, comme l’Institut international de recherche sur la paix de Stockholm, Chatham House, le Programme sur le droit international et les conflits armés de la Faculté de droit de l’Université Harvard, ainsi que des ONG, comme Human Rights Watch, l'International Committee for Robot Arms Control, Article 36 et Amnesty International, ont aussi considérablement contribué.

La première réunion officielle du GEG consacrée à la question des nouvelles technologies dans le domaine des systèmes d’armes autonomes dans le contexte des objectifs de la CCAC a eu lieu à Genève du 13 au 17 novembre 2017. Pour éclairer les participants aux débats, le Président a soumis un document de réflexion4, les Hautes Parties contractantes ont présenté neuf autres documents de travail et quatre groupes d’experts ont été mis en place pour traiter les aspects juridiques, éthiques, militaires, techniques et transversaux du sujet. Des événements organisés en marge par des ONG, des instituts de recherche et des ?tats ont enrichi les débats en apportant de nouvelles perspectives, y compris celles provenant de jeunes entrepreneurs en intelligence artificielle. ? la fin de la semaine, les participants ont adopté un ensemble de conclusions et de recommandations5. L’une des conclusions était que la CCAC représentait le cadre approprié pour traiter cette question et l’autre, que le droit international humanitaire s’appliquait pleinement au développement et à l’emploi potentiel des systèmes d’armes létales autonomes. Cela représentait un point de départ important, sans pour autant apporter de réponse à la question concernant l’application d’autres normes juridiques. Les conclusions ont aussi permis au Président de se concentrer sur l’ordre du jour du groupe pour 2018 portant sur 1) la caractérisation des systèmes envisagés, c’est-à-dire la question des définitions; 2) les aspects de l’interaction homme-machine et les violations possibles du droit international humanitaire?associées; et 3) les différentes options pour traiter les conséquences de la mise en ?uvre de ces systèmes pour la sécurité humanitaire et internationale. Si les points de vue divergents sur la définition et les risques, ainsi que sur les avantages possibles des SALA et des nouvelles conceptions de la réglementation et du contr?le, y compris l’idée d’une interdiction préventive ont persisté, l’analyse du Président a permis de rendre compte de la diversité des points de vue sans bloquer les progrès de fond par le biais de conclusions plus concises.

Le GEG a intensifié ses activités en organisant deux sessions en avril et en ao?t 2018. Lors de la réunion qui a eu lieu du 9 au 13 avril à Genève, il a accompli des progrès importants en parvenant à une entente sur la qualité et la portée de l’interface homme-machine nécessaire non seulement pour garantir le respect du droit international humanitaire, mais aussi pour obtenir éventuellement des résultats plus ambitieux sur la responsabilité humaine. Le groupe a examiné les différentes phases du développement et du déploiement de la technologie et a pu se faire une idée du travail qui serait nécessaire pour assurer une supervision humaine et un contr?le humain réels. En ce qui concerne la caractérisation, les débats ont permis de trouver un terrain d’entente sur les concepts et les caractéristiques nécessaires à une définition éventuelle et d’abandonner l’idée qu’il fallait distinguer clairement les nouvelles préoccupations ainsi que les questions pouvant être traitées dans le cadre des instruments existants. Les travaux, qui ont débuté en 2017 en vue de développer une compréhension et des principes communs, se sont poursuivis en avril 2018 et ont eu pour point culminant l’élaboration, lors de la réunion ayant eu lieu à la fin d’ao?t 2018, d’un ensemble de principes directeurs possibles. Ces principes sont soutenus par les éléments fondamentaux de la caractérisation, de l’interface homme-machine et de l’examen de la technologie. Le rapport du GEG présente quatre options, y compris des conditions contraignantes possibles, qui peuvent être définies à partir des principes directeurs et des éléments fondamentaux convenus6.

Les dix principes concernaient l’applicabilité du droit international humanitaire; la non-délégation de la responsabilité humaine; la responsabilité dans le recours à la force en conformité avec le droit international humanitaire; l’examen de la légalité des armes avant leur déploiement; l’incorporation de garanties physiques en matière de non-prolifération et de cybersécurité; l’évaluation et l’atténuation des risques pendant le développement de la technologie; l’utilisation des nouvelles technologies dans le domaine des SALA en conformité avec le droit international humanitaire; empêcher tout programme de recherche, de développement et d’utilisation à des fins civiles; la nécessité d’adopter une démarche anthropomorphique sur l’IA; et la pertinence de la CCAC comme cadre pour traiter cette question. Les éléments fondamentaux de la caractérisation comprennent la nécessité de maintenir l’élément humain au premier plan lors de l’emploi de la force. La compréhension de l’interface homme-machine est fondée sur une direction politique lors de la phase du pré-développement; la recherche et le développement; les tests, l’évaluation et la certification; le déploiement, la formation, le commandement et le contr?le; l’utilisation et l’interruption;?et l’évaluation de l’après utilisation. Le Groupe a convenu que la responsabilité des êtres humains est la composante de l’interface homme-machine dans le contexte de la CCAC. Il a aussi reconnu la nécessité de progresser par étapes et d’élaborer un langage scientifique et politique commun en partenariat avec l’industrie et d’autres parties prenantes.

D’autres travaux sont nécessaires pour prévenir les dommages possibles causés aux civils et aux combattants dans les conflits armés contraires aux obligations liées au droit international humanitaire, l’exacerbation des dilemmes de la sécurité par la course aux armements et un abaissement du seuil pour l’emploi de la force. Le résultat de la réunion du mois d’ao?t 2018 représente, cependant, un point positif pour l’éthique multilatérale à un moment difficile pour la coopération mondiale. Il souligne le r?le important que les instances des Nations Unies peuvent jouer dans la solution des défis posés par l’évolution rapide des technologies en faisant participer toutes les parties prenantes importantes et en s’appuyant sur le droit international et les institutions internationales.?

?

Notes

  1. Ou la ??Convention sur les armes inhumaines?? ouverte à la signature le 10 avril 1981, entrée en vigueur le 2 décembre 1983. Disponible sur le site .
  2. ??Rapport du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, Christof Heyens?? 2013 (A/HRC/23/47). Disponible sur le site .
  3. Cinquième Conférence des Hautes Parties contractantes chargées de l’examen de la la CCAC, ??Document final de la cinquième Conférence d’examen??, Décision I (CCW/CONF.V/10). Disponible sur le site .
  4. CCW/GGE.1/2017/WP.1. Disponible sur le site .
  5. Rapport de 2017 du Groupe d’experts gouvernementaux sur les systèmes d’armes létales autonomes (LAWS), Genève, 13–17 novembre 2017 (CCW/GGE.1/2017/CRP.1). Disponible sur le site (httpAssets)/B5B99A4D2F8BADF4C12581DF0048E7D0//2017_CCW_GGE.1_2017_CRP.1_Advanced_+corrected.pdf.
  6. Rapport du Groupe d’experts gouvernementaux sur les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes sur sa session de 2018, Genève, 9-13 avril 2018 et 27-31 ao?t 2018 (CCW/GGE.1/2018/3). Disponible sur le site

?

La?Chronique de l’ONU?ne constitue pas un document officiel. Elle a le privilège d’accueillir des hauts fonctionnaires des Nations Unies ainsi que des contributeurs distingués ne faisant pas partie du système des Nations Unies dont les points de vue ne reflètent pas nécessairement ceux de l’Organisation. De même, les frontières et les noms indiqués ainsi que les désignations employées sur les cartes ou dans les articles n’impliquent pas nécessairement la reconnaissance ni l’acceptation officielle de l’Organisation des Nations Unies.?