Google revient sur un engagement pris
Google revient sur un engagement pris

La société Google a annoncé une mise à jour de ses principes éthiques en matière d’intelligence artificielle, revenant ainsi sur son engagement précédent de ne pas utiliser cette technologie dans les armes et la surveillance. En 2018, l’entreprise avait mis en place des politiques excluant les applications de l’IA « susceptibles de causer un préjudice généralisé », mais cet engagement a désormais disparu.

Google n’a pas fourni de réponse claire quant à l’utilisation de l’intelligence artificielle dans les domaines militaires. Toutefois, dans une publication de Demis Hassabis, directeur de l’IA, et James Manyika, vice-président, il est précisé que ces principes ont été actualisés en raison de la large diffusion de cette technologie. Ils insistent sur la nécessité pour les démocraties de diriger le développement de l’IA afin d’assurer la sécurité nationale.

La position de Google s’aligne désormais davantage avec celle d’autres géants technologiques comme Microsoft et Amazon, qui ont établi des partenariats avec le Pentagone. Par ailleurs, d’autres entreprises, telles qu’OpenAI et Anthropic, collaborent également avec des institutions militaires américaines.

Ce revirement a suscité des critiques. Certains chercheurs estiment que les principes éthiques précédents manquaient déjà de caractère contraignant et rappellent que Google a subi des pressions gouvernementales sur des questions liées à l’IA. Cette décision ravive également le souvenir des protestations passées des employés de Google contre la collaboration avec le Pentagone sur le projet Maven, ainsi que du refus de certains de signer des contrats de cloud computing avec Israël.

Ces évolutions surviennent dans un contexte de tensions géopolitiques croissantes entre les États-Unis et la Chine, où les technologies d’intelligence artificielle sont devenues un enjeu stratégique majeur entre les deux puissances.

Partager