Les « hallucinations de l’intelligence artificielle » pourraient aider à développer de nouveaux medicaments

Entrevue 1

Beaucoup perçoivent l’intelligence artificielle comme une source précieuse d’informations variées, appréciant sa capacité à simplifier les tâches complexes.

Cependant, une des caractéristiques les plus débattues de l’IA est sa propension à « halluciner », un phénomène que les experts qualifient d’« hallucinations de l’intelligence artificielle ».

Ce phénomène se traduit par l’invention d’informations qui paraissent crédibles et réalistes, mais qui, en réalité, ne sont que des hypothèses non vérifiées ou complètement erronées.

Certains chercheurs estiment toutefois que ces hallucinations pourraient se révéler bénéfiques. Elles pourraient, par exemple, favoriser l’innovation et contribuer à la découverte de nouveaux médicaments et traitements, selon le site Psychology Today.

Le site rapporte les propos de John Nosta, un expert américain en technologie, sciences, médecine et innovation, qui soutient que les « hallucinations de l’intelligence artificielle » peuvent parfois constituer un atout plutôt qu’un défaut. Il explique que des recherches récentes apportent des preuves solides en faveur de cette idée, démontrant comment les suppositions incertaines de l’IA peuvent stimuler des avancées dans des domaines où la créativité et l’imagination sont essentielles.

Les hallucinations comme moteur d’innovation

Dans le domaine du développement de nouveaux médicaments, il est essentiel d’identifier des composés thérapeutiques et des structures chimiques, avant de les tester pour évaluer leur efficacité contre certaines maladies.

Les avancées majeures dans ce secteur émergent souvent lorsque les chercheurs explorent des hypothèses ou des idées non conventionnelles et inattendues. C’est précisément dans cette optique que les « hallucinations de l’intelligence artificielle » peuvent être utiles.

Une étude récente a révélé que les hallucinations générées par différents modèles de langage avancés (LLM), conçus pour traiter, comprendre et produire du texte, peuvent donner naissance à de « nouvelles structures moléculaires chimiques » dépassant les limites des données connues. Par exemple, lorsqu’on demande à ces modèles de proposer des idées pour des molécules médicamenteuses potentielles, ils suggèrent parfois des composés qui semblent improbables ou déconnectés de la chimie traditionnelle. Pourtant, après des vérifications approfondies, certaines de ces suggestions, considérées initialement comme des hallucinations, s’avèrent présenter des propriétés prometteuses pour le développement de nouveaux traitements.

Enjeux éthiques

Malgré les avantages potentiels des hallucinations de l’IA, elles soulèvent également des préoccupations éthiques et pratiques importantes.

Par nature, ces hallucinations sont imprévisibles et nécessitent une validation rigoureuse pour garantir leur utilité et leur sécurité, en particulier dans des domaines sensibles comme la médecine. Ainsi, la supervision humaine reste indispensable pour distinguer les hallucinations utiles, capables de stimuler la créativité, de celles qui pourraient causer des dommages. C’est ici que réside le principal défi.

Par notre partenaire Nidaa al Watan (avec Reuters)

Thumbnail