La startup Character AI, qui permet aux utilisateurs de créer des personnages d’intelligence artificielle et de dialoguer avec eux via appels ou messages texte, a annoncé mardi le lancement d’une nouvelle série d’outils de contrôle parental visant à renforcer la sécurité de ses utilisateurs adolescents.
Cette annonce intervient après une série de poursuites judiciaires et de critiques adressées à l’entreprise pour son prétendu échec à protéger les mineurs contre les préjudices.
Selon un rapport du site spécialisé « TechCrunch », consulté par « Al Arabiya Business », « Character AI » enverra désormais aux parents un résumé hebdomadaire de l’activité de leurs enfants adolescents sur l’application, par e-mail.
Cet e-mail indiquera la durée moyenne passée par l’enfant sur l’application et en ligne, le temps consacré à chaque personnage, ainsi que les personnages avec lesquels il a le plus interagi au cours de la semaine.
La startup précise que ces données ont pour but de donner aux parents une vision approfondie des habitudes d’interaction de leurs enfants sur la plateforme, tout en soulignant qu’ils n’ont pas accès directement aux conversations elles-mêmes.
À la suite des poursuites judiciaires, l’entreprise avait déjà introduit l’année dernière des mesures de sécurité telles qu’un modèle spécifique pour les utilisateurs de moins de 18 ans, des notifications sur le temps passé, ainsi que des avertissements rappelant que les conversations se font avec des personnages animés par l’IA.
Plus tôt cette année, la société a déposé une demande de rejet d’une plainte l’accusant d’avoir joué un rôle dans le suicide d’un adolescent.