L'ONU relance les discussions sur les « robots tueurs » face à l'urgence d'une régulation internationale
L'ONU relance les discussions sur les « robots tueurs » face à l'urgence d'une régulation internationale

GENÈVE — Des représentants de dizaines de pays se sont réunis lundi aux Nations Unies pour tenter de relancer les discussions sur les armes autonomes dotées d’intelligence artificielle, alors que l’absence de règles internationales claires alimente une inquiétude croissante chez les défenseurs des droits humains et les experts en sécurité. L’objectif affiché : parvenir à une réglementation d’ici 2026, une échéance jugée de plus en plus difficile à atteindre.

Les systèmes d’armes autonomes, capables d’identifier et d’engager des cibles sans intervention humaine significative, sont déjà utilisés sur plusieurs théâtres de guerre, notamment en Ukraine, à Gaza et au Moyen-Orient. Leur développement rapide, encouragé par l’essor des technologies militaires et la hausse des budgets de défense, suscite des appels pressants à une action internationale coordonnée.

Depuis 2014, les pays membres de la Convention sur certaines armes classiques (CCAC) se réunissent à Genève pour débattre d’une possible interdiction ou réglementation des armes entièrement autonomes. Mais les négociations progressent lentement, freinées par des divisions profondes entre États. Le secrétaire général de l’ONU, Antonio Guterres, a fixé 2026 comme date limite pour adopter des règles concrètes, mais peu de pays semblent prêts à des engagements contraignants.

La réunion de l’Assemblée générale de l’ONU à New York marque une première : c’est la toute première séance spécifiquement consacrée aux armes autonomes. Bien qu’elle ne soit pas juridiquement contraignante, cette consultation vise à accroître la pression diplomatique, notamment sur les grandes puissances militaires comme les États-Unis, la Russie, la Chine et l’Inde, qui continuent de privilégier des approches nationales ou des cadres juridiques existants.

« Le temps presse vraiment pour mettre en place des garde-fous », a averti Alexander Kmentt, responsable du contrôle des armements au ministère autrichien des Affaires étrangères. Amnesty International et d’autres ONG insistent sur la nécessité d’un traité contraignant, soulignant les risques éthiques, juridiques et sécuritaires de confier à des machines des décisions de vie ou de mort.

Selon le Future of Life Institute, environ 200 systèmes d’armes autonomes sont déjà en usage à travers le monde. La Russie aurait déployé 3 000 drones kamikazes autonomes de type Veter en Ukraine, tandis que l’Ukraine et Israël utiliseraient également des dispositifs reposant sur l’IA. Bien que certains États affirment respecter le droit international, des questions fondamentales restent sans réponse, notamment sur la responsabilité juridique en cas d’erreur ou de bavure.

Les militants craignent qu’en l’absence de régulation, une course aux armements ne s’emballe. « Il n’y a aucune raison de croire que les entreprises de défense s’autoréguleront », a déclaré Laura Nolan, membre du groupe Stop Killer Robots. Elle appelle à un encadrement strict du développement technologique dans le domaine militaire.

Le soutien croissant à l’adoption d’un traité — avec 164 États ayant appuyé une résolution de l’ONU en ce sens en 2023 — montre une volonté internationale de limiter les risques. Mais l’absence de consensus sur la forme que cette régulation doit prendre laisse planer une incertitude dangereuse. Le prochain cycle de négociations sur la CCAC, prévu en septembre, pourrait être décisif pour savoir si la communauté internationale est prête à encadrer efficacement l’usage de ces nouvelles armes létales.

Partager