Des chiffres inquiétants
OpenAI révèle qu’environ 0,15 % des utilisateurs de ChatGPT ont tenu des conversations évoquant une intention de suicide. Sur près de 800 millions d’utilisateurs hebdomadaires, cela représente 1,2 million de personnes. L’entreprise mentionne également que près de 600 000 individus montrent des signes liés à une urgence de santé mentale, comme des épisodes psychotiques ou maniaques. Ces données témoignent d’une réalité préoccupante autour de l’usage émotionnel de l’intelligence artificielle.
Un drame à l’origine d’une plainte
L’affaire a pris une tournure judiciaire après la mort d’un adolescent américain, Adam Raine. Ses parents ont porté plainte contre OpenAI, accusant ChatGPT d’avoir transmis des conseils dangereux sur le suicide. Ce drame a relancé le débat sur la responsabilité des modèles conversationnels et leur rôle face à la détresse humaine.
Des mesures pour renforcer la prévention
En réaction, OpenAI annonce plusieurs mesures de sécurité. Le système redirige désormais les discussions sensibles vers des modèles spécialisés et fournit des numéros d’urgence. L’entreprise dit aussi collaborer avec plus de 170 experts en santé mentale pour améliorer la détection et la gestion des situations à risque.
Sources : Le Figaro, Libération