L’intelligence artificielle : une innovation révolutionnaire nécessitant une régulation stricte

L’intelligence artificielle : une innovation révolutionnaire nécessitant une régulation stricte

Le secteur de l’intelligence artificielle connaît une expansion rapide, avec des projets majeurs comme « Stargate », un investissement américain de 500 milliards de dollars dans les infrastructures. Parallèlement, l’entreprise chinoise « Deep Sec » émerge en tant que concurrent de taille, comme le souligne Faisal Haq (*).

Les préoccupations américaines face à la Chine Les modèles d’IA avancés de « Deep Sec », qui égalent les capacités occidentales à moindre coût, suscitent des inquiétudes majeures sur la cybersécurité, l’extraction de données et la collecte d’informations mondiales. Cette situation souligne l’urgence de renforcer la régulation de l’IA et d’adopter des mesures de sécurité aux États-Unis.

L’écart entre progrès technologique et régulation Tandis que la compétition pour l’IA s’intensifie, un fossé se creuse entre les avancées technologiques et la régulation. Les États-Unis doivent relever le défi de développer rapidement leurs capacités en IA avec des projets comme « Stargate », tout en mettant en place des cadres législatifs robustes pour protéger leurs actifs numériques et assurer leur sécurité nationale. Face à la capacité de « Deep Sec » de contourner les contrôles d’exportation et de mener des cyberattaques complexes, les États-Unis doivent réagir vite pour sécuriser leurs innovations tout en restant compétitifs dans ce secteur en évolution constante.

Des risques croissants liés à la désinformation et à la violence Les risques associés à l’IA sont déjà présents. Les deepfakes, bots et manipulations algorithmiques sur les réseaux sociaux ont perturbé la cohésion sociale et favorisé l’émergence de chambres d’écho politiques. Cependant, ces dangers ne sont que la pointe de l’iceberg, et des menaces bien plus graves pourraient apparaître dans les cinq à dix prochaines années.

L’IA pourrait être utilisée pour concevoir des armes biologiques Durant la pandémie, l’IA a permis de développer des vaccins à une vitesse impressionnante. Selon Mustafa Suleyman, fondateur de « DeepMind » et PDG de « Microsoft AI », il ne faudra pas longtemps avant que l’IA soit capable de concevoir de nouvelles armes biologiques aussi rapidement. Ces technologies seront accessibles non seulement aux États, mais aussi à des acteurs non étatiques. En outre, les drones modernes permettent à toute personne ayant des connaissances en programmation d’armer l’IA à distance. La perte de confiance dans la gestion gouvernementale génère peur, confusion et théories complotistes.

Risques géopolitiques Mes sept années d’expérience auprès des ministères de la Défense et de la Sécurité intérieure m’ont permis de mieux cerner les risques géopolitiques liés à l’IA et aux technologies numériques. Ces risques ne proviennent pas seulement de l’extérieur. Au cours de la dernière décennie, l’acceptation de la violence politique parmi les citoyens américains a augmenté, comme en témoigne l’attaque contre Brian Thompson, PDG de « United Health Care ».

Chômage massif et troubles sociaux L’automatisation entraîne la disparition progressive de certains emplois, ce qui pourrait provoquer une vague de chômage et de troubles sociaux. Ce phénomène accroît le risque que l’IA soit utilisée contre la société dans son ensemble. Et la situation pourrait empirer à mesure que l’IA continue de se développer à une vitesse difficile à suivre, même pour ses créateurs.

L’IA pourrait représenter une menace pour l’humanité Geoffrey Hinton, prix Nobel et pionnier de l’IA, a déclaré qu’il y a une forte probabilité que l’IA mette en péril l’humanité d’ici trente ans. D’autres experts pensent que ce danger pourrait survenir bien plus tôt.

Régulations basées sur les risques La régulation de l’IA doit impérativement reposer sur une évaluation des risques. Nous ne pouvons pas nous permettre de réguler l’IA de manière aussi négligente que les drones. Une approche flexible et à long terme est nécessaire pour se protéger contre les menaces émergentes.

Lors d’une récente interview avec le sénateur Richard Blumenthal, nous avons discuté des moyens de réguler efficacement une technologie que nous ne maîtrisons pas encore pleinement. Blumenthal, co-auteur du « Blumenthal-Hawley Framework » sur l’IA, propose une approche relativement flexible, similaire à celle de l’industrie pharmaceutique, afin de superviser rigoureusement les technologies potentiellement dangereuses tout en favorisant l’innovation des entreprises américaines. Il souligne : « Nous ne voulons pas étouffer l’innovation. La régulation doit donc être basée sur les risques. »

Cependant, il est nécessaire d’aller plus loin. Bien que le modèle pharmaceutique puisse suffire pour encadrer les entreprises d’IA, il est également crucial d’adopter un cadre permettant de limiter les risques posés par des acteurs malveillants. Contrairement à l’industrie pharmaceutique, où la production de médicaments nécessite une infrastructure physique, les codes informatiques peuvent être copiés et distribués instantanément à l’échelle mondiale.

Limiter les échappées de l’IA Le risque que des IA « problématiques » échappent à tout contrôle est bien plus élevé que celui des médicaments dangereux. En raison du potentiel de destruction de l’IA, il est raisonnable de considérer que ses régulations devraient être aussi strictes que celles régissant les armes nucléaires et l’énergie nucléaire.

Il est impératif d’agir rapidement pour établir un cadre complet et cohérent qui équilibre innovation et sécurité, afin de protéger l’humanité des risques existentiels tout en permettant un développement responsable de l’IA.

En conclusion : • Encourager une innovation éthique et responsable en IA. • Mettre en place des régulations solides pour garantir la transparence et la responsabilité. • Renforcer la sécurité nationale en intégrant l’IA dans les capacités militaires et de cybersécurité. • Investir dans le développement des compétences des travailleurs dans les secteurs liés à l’IA. • Conduire des efforts mondiaux pour établir des normes éthiques et protéger la propriété intellectuelle. • Aborder les préoccupations publiques sur l’IA pour maintenir la confiance et limiter la perte d’emplois.

L’intelligence artificielle : une innovation révolutionnaire nécessitant une régulation stricte-1