Systèmes d’armes létales autonomes, quelle est l’action de la France ?

Partager

Les progrès technologiques réalisés dans les domaines de l’intelligence artificielle, de la robotique et de l’autonomie rendent envisageable l’apparition future de systèmes d’armes capables d’avoir recours à la force létale sans aucune intervention humaine. Si de tels systèmes – appelés communément systèmes d’armes létaux autonomes ou d’armes létales autonomes (SALA) – n’existent pas à ce jour, l’éventualité prévisible de leur développement et de leur emploi par certains acteurs soulève de nombreuses questions, d’ordre à la fois juridique et éthique.

Consciente de ces enjeux, la France a clairement affirmé qu’elle ne développerait pas de SALA, et a agi pour que la communauté internationale se saisisse de cette question. A son initiative, des discussions sur le sujet ont été lancées depuis 2013 aux Nations unies, dans l’enceinte de la Convention sur certaines armes classiques (CCAC). Dans ce cadre, la France promeut avec ses partenaires l’adoption d’un ensemble de principes, visant à régir le développement et l’usage des systèmes d’armes autonomes.

Quels sont les enjeux liés aux SALA ?

Les technologies de l’intelligence artificielle ont des applications militaires diverses qui présentent un intérêt opérationnel réel pour les forces armées, par exemple dans le domaine de la reconnaissance ou de l’aide à la décision. D’une manière générale, le développement des applications militaires de l’intelligence artificielle n’a pas vocation à remplacer le commandement humain. Il s’agit plutôt de l’assister et ainsi d’améliorer le processus de prise de décision dans des situations opérationnelles complexes et fortement évolutives.

Néanmoins, il ne peut être exclu que les progrès technologiques enregistrés dans ce domaine puissent conduire, dans l’avenir, au développement par certains acteurs de ce que l’on a appelé des « systèmes d’armes létaux autonomes » (SALA), c’est-à-dire des systèmes d’armes, qui seraient capables de recourir à la force létale sans aucune forme de supervision humaine. Autrement dit des systèmes qui seraient capables de modifier le cadre de la mission qui leur a été fixée, voire de s’assigner eux-mêmes de nouvelles missions.

Le développement potentiel de telles armes soulève d’importantes questions éthiques et juridiques.
D’un point de vue éthique, il n’est pas acceptable que la décision de vie ou de mort puisse être intégralement confiée à des machines échappant à toute forme de supervision humaine. D’un point de vue juridique, pour que le droit international humanitaire (DIH), qui régit les conflits armés, puisse s’appliquer, il faut que l’usage d’une arme puisse être rattaché à une responsabilité humaine.

Consciente de ces enjeux, la communauté internationale s’est saisie de cette question dès 2013, à l’initiative de la France. Un groupe d’experts gouvernementaux a été mis en place au sein de la Convention d’interdiction de certaines armes classiques (CCAC) (page en anglais).
Les débats qui sont menés dans ce cadre sont d’une grande complexité. D’une part, parce que les SALA -qui n’existent pas à ce jour- ne font pas l’objet d’une définition universellement admise ; d’autre part, parce qu’il importe de ne pas faire obstacle aux activités de recherche-développement en matière d’intelligence artificielle, qui ont des applications tant dans le domaine militaire que civil.

Quelle est la position de la France ?

La France a clairement affirmé que des systèmes d’armes capables de recourir à la force de façon totalement autonome seraient fondamentalement contraires à ses principes, et qu’elle n’entendait pas en développer.

Notre pays a ancré sa stratégie de développement de l’intelligence artificielle de défense dans le cadre de trois grands principes : respect du droit international, responsabilité du commandement dans l’emploi des armes et maintien d’un contrôle humain suffisant.

En 2013, la France a pris l’initiative d’introduire des discussions sur les SALA aux Nations unies, au sein de la Convention sur certaines armes classiques (CCAC), à Genève. Dans ce cadre, elle se mobilise, avec l’Allemagne et d’autres partenaires, pour bâtir un consensus international autour de grands principes visant, notamment, à inscrire le développement et l’emploi des futurs systèmes d’armes autonomes dans le respect du droit international, en particulier du droit international humanitaire.

Un résultat important a été obtenu, en novembre 2019, avec l’approbation par la réunion des États parties à la CCAC de 11 principes directeurs.
Ces principes affirment notamment que le droit international humanitaire s’applique à tous les systèmes d’armes, y compris ceux dotés d’autonomie, et que l’emploi de ces systèmes doit toujours dépendre d’une responsabilité humaine. Ils évoquent la nécessité d’une interaction entre l’humain et la machine, dont la nature et l’étendue doivent encore être précisées, pour assurer le respect du droit international humanitaire lorsque ces armes sont utilisées. Ces principes rappellent aussi que les États doivent, conformément au premier protocole additionnel aux Conventions de Genève, examiner la licéité* des nouvelles armes qu’ils développent.

Les États vont poursuivre leurs travaux dans le cadre de la Convention afin d’enrichir ce corps de principes, sur lequel ils s’appuieront pour examiner les possibles éléments constitutifs d’un « cadre normatif et opérationnel » applicable aux SALA. La France continuera à soutenir ce processus de discussions et à y contribuer activement.

* Licéité désigne ce qui est licite, conforme à la loi.

Mise à jour : février 2020