Quelles mesures la France prend-elle sur les systèmes d’armes létales autonomes ?

La France, intéressée par ces questions, a clairement fait savoir qu’elle ne développerait pas d’armes létales autonomes et a soumis cette question à la communauté internationale. Sur la base de cette initiative française, les Nations unies ont entamé en 2013 des discussions sur ce même sujet dans le cadre de la Convention sur certaines armes classiques. Dans ce contexte, la France promeut avec ses partenaires un ensemble de principes qui soutiendront le développement et le déploiement de systèmes d’armes autonomes.

Les technologies d’IA ont des applications militaires diverses qui présentent un réel intérêt opérationnel pour les armées, dans les domaines de la reconnaissance ou de l’aide à la décision. De manière générale, le développement d’applications militaires basées sur l’intelligence artificielle ne vise pas à remplacer le leadership humain, mais à le soutenir et à améliorer la prise de décision dans des situations opérationnelles complexes et très volatiles.

Cependant, il ne peut être exclu que les avancées technologiques dans ce domaine conduisent à l’avenir certains acteurs à développer des systèmes d’armes dits autonomes létaux, c’est-à-dire des systèmes d’armes capables de recourir à la force létale sans contrôle humain, c’est-à-dire avec , des systèmes capables de modifier la portée d’une tâche donnée ou d’attribuer de nouvelles tâches pour les mettre en œuvre sans intervention humaine.

La perspective de développer de telles armes soulève des questions éthiques et juridiques.

Il est moralement inacceptable de confier toute la tâche de décider de la vie ou de la mort à des machines qui ne sont sous aucun contrôle humain. D’un point de vue juridique, l’utilisation de toute arme doit relever de la responsabilité humaine afin de permettre l’application du droit international humanitaire, qui régit les conflits armés.

La communauté internationale intéressée par ces questions s’est penchée sur cette question depuis 2013, à partir d’une initiative française. Création d’un groupe d’experts gouvernementaux sur la Convention sur certaines armes classiques (Page disponible en anglais).

Les discussions au sein de cette équipe sont très complexes, d’une part parce que les lois qui n’existent pas actuellement n’ont pas de définition mondialement reconnue, et d’autre part parce qu’il est essentiel de ne pas entraver la recherche et le développement de l’IA dans les domaines militaire et civil.

La France a clairement indiqué que les systèmes d’armes capables d’utiliser la force en toute autonomie sont fondamentalement incompatibles avec ses principes et qu’elle n’a pas l’intention de développer de telles armes. La stratégie française de développement de l’intelligence artificielle défensive repose sur trois principes fondamentaux : le respect du droit international, la responsabilité de la maîtrise des armements et le maintien d’un rôle humain approprié dans la maîtrise des armements.

En 2013, la France a engagé des discussions aux Nations Unies sur les systèmes d’armes létales autonomes dans le cadre de la Convention de Genève sur certaines armes classiques. Dans ce contexte, avec l’Allemagne et d’autres partenaires, elle s’est engagée en faveur d’un consensus international sur les principes de base, qui visent notamment à garantir que le développement et l’utilisation de systèmes d’armes autonomes à l’avenir soient conformes au droit international, en particulier loi humanitaire internationale.

La France et ses partenaires ont obtenu des résultats significatifs en novembre 2019 lorsque les États parties à la Convention sur certaines armes classiques se sont mis d’accord sur 11 principes directeurs.

Ces principes affirment que le droit international humanitaire s’applique à tous les systèmes d’armes, y compris les armes autonomes, et que l’utilisation de ces systèmes doit toujours être fondée sur la responsabilité humaine. Les principes portent sur la nécessité d’une interaction homme-machine, précisant la nature et l’étendue de cette interaction pour assurer le respect du droit international humanitaire lors de l’utilisation de ces armes. Les Principes rappellent également que les États doivent examiner la légalité des nouvelles armes qu’ils développent en vertu du Protocole additionnel I à la Convention de Genève.

Les États continueront à travailler dans le cadre de la Convention pour enrichir cet ensemble de principes sur lesquels ils s’appuieront pour examiner les éléments possibles pour l’élaboration d’un cadre normatif et opérationnel pour les systèmes d’armes létales autonomes. La France continuera à soutenir et à participer activement à ces discussions.

Mis à jour février 2020

elite boss

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.