**Un homme tué dans une fusillade s'adresse à son meurtrier grâce à une vidéo générée par l'IA au tribunal** Dans une scène inédite au tribunal de l’Arizona, un avatar généré par intelligence artificielle d’un homme tué en 2021 s’est « adressé » à son meurtrier lors de l’audience de détermination de la peine, marquant l’une des premières utilisations connues de cette technologie dans un contexte judiciaire américain. Christopher Pelkey, un vétéran de l’armée âgé de 37 ans, avait été tué lors d’un incident de rage au volant à Chandler, en Arizona. Le 1er mai dernier, au moment où la Cour supérieure du comté de Maricopa s’apprêtait à condamner Gabriel Paul Horcasitas, reconnu coupable d’homicide involontaire et de mise en danger d’autrui, les proches de Pelkey ont diffusé une vidéo surprenante : un message posthume, généré par l’IA, dans lequel Pelkey « s’adresse » à son agresseur. « C'est dommage que nous nous soyons rencontrés ce jour-là dans ces circonstances », déclare l’avatar, vêtu d’un sweat-shirt vert sur fond blanc, sa bouche affichant parfois un léger décalage avec le son. « Dans une autre vie, nous aurions probablement pu être amis. » La vidéo n’a pas été présentée comme une preuve à proprement parler, ce qui aurait été interdit par les règles strictes du système judiciaire américain, mais comme une déclaration à caractère émotionnel dans le cadre de la phase de condamnation. Horcasitas a finalement écopé de dix ans et demi de prison. Stacey Wales, la sœur de Pelkey, explique avoir écrit le texte prononcé par l’avatar, n’arrivant pas à exprimer elle-même toutes les années de douleur accumulées depuis la mort de son frère. « Je ne suis pas encore prête à pardonner », a-t-elle confié, « mais je pense que Chris l’aurait peut-être été. » L’initiative, mise en œuvre avec l’aide de son mari et d’un ami technicien, soulève déjà des débats juridiques et éthiques. Harry Surden, professeur de droit à l’Université du Colorado, souligne les risques de manipulation émotionnelle qu’implique l’usage de telles simulations en salle d’audience. « Ce que nous voyons, ce sont des simulations si réalistes qu’elles court-circuitent notre scepticisme et touchent directement nos émotions », a-t-il averti. Un homme tué dans une fusillade s'adresse à son meurtrier grâce à une vidéo générée par l'IA au tribunal Un homme tué dans une fusillade s'adresse à son meurtrier grâce à une vidéo générée par l'IA au tribunal
Un homme tué dans une fusillade s'adresse à son meurtrier grâce à une vidéo générée par l'IA au tribunal

Dans une scène inédite au tribunal de l’Arizona, un avatar généré par intelligence artificielle d’un homme tué en 2021 s’est « adressé » à son meurtrier lors de l’audience de détermination de la peine, marquant l’une des premières utilisations connues de cette technologie dans un contexte judiciaire américain.

Christopher Pelkey, un vétéran de l’armée âgé de 37 ans, avait été tué lors d’un incident de rage au volant à Chandler, en Arizona. Le 1er mai dernier, au moment où la Cour supérieure du comté de Maricopa s’apprêtait à condamner Gabriel Paul Horcasitas, reconnu coupable d’homicide involontaire et de mise en danger d’autrui, les proches de Pelkey ont diffusé une vidéo surprenante : un message posthume, généré par l’IA, dans lequel Pelkey « s’adresse » à son agresseur.

« C’est dommage que nous nous soyons rencontrés ce jour-là dans ces circonstances », déclare l’avatar, vêtu d’un sweat-shirt vert sur fond blanc, sa bouche affichant parfois un léger décalage avec le son. « Dans une autre vie, nous aurions probablement pu être amis. »

La vidéo n’a pas été présentée comme une preuve à proprement parler, ce qui aurait été interdit par les règles strictes du système judiciaire américain, mais comme une déclaration à caractère émotionnel dans le cadre de la phase de condamnation. Horcasitas a finalement écopé de dix ans et demi de prison.

Stacey Wales, la sœur de Pelkey, explique avoir écrit le texte prononcé par l’avatar, n’arrivant pas à exprimer elle-même toutes les années de douleur accumulées depuis la mort de son frère. « Je ne suis pas encore prête à pardonner », a-t-elle confié, « mais je pense que Chris l’aurait peut-être été. »

L’initiative, mise en œuvre avec l’aide de son mari et d’un ami technicien, soulève déjà des débats juridiques et éthiques. Harry Surden, professeur de droit à l’Université du Colorado, souligne les risques de manipulation émotionnelle qu’implique l’usage de telles simulations en salle d’audience. « Ce que nous voyons, ce sont des simulations si réalistes qu’elles court-circuitent notre scepticisme et touchent directement nos émotions », a-t-il averti.

Pour Stacey Wales, cependant, ce recours à l’IA n’était qu’un moyen de plus de « toucher quelqu’un » et de rappeler, face au juge, l’humanité et la mémoire de son frère disparu.

Partager