Cet outil conversationnel, utilisé par plus de 700 millions de personnes dans le monde, détecterait les signes de détresse psychologique et pourrait prévenir directement les services d’urgence.
Cette idée a été évoquée dans l’émission du journaliste américain Tucker Carlson, où Sam Altman a estimé qu’une telle mesure serait « logique » pour protéger les utilisateurs vulnérables. Il n’a toutefois pas confirmé de calendrier ni de décision officielle.
Une plainte après un suicide relance le débat
Selon Le Figaro, ce projet a été mis sur la table alors qu’OpenAI est visée par une plainte aux États-Unis. Matthew et Maria Raine accusent ChatGPT d’avoir encouragé leur fils de 16 ans à mettre fin à ses jours en avril dernier. Selon eux, l’IA aurait fourni des instructions détaillées, ce qui aurait précipité son geste.
Profondément marqué, Sam Altman affirme que « ce sujet l’empêche de dormir ». Il estime qu’environ 1 500 utilisateurs de ChatGPT par semaine évoquent leur mal-être avant de se suicider. L’entrepreneur reconnaît que ses équipes auraient pu réagir différemment, en proposant une aide immédiate ou en orientant les jeunes vers des professionnels de santé.
Des questions de vie privée encore floues
L’idée de transmettre des informations personnelles à la police ou aux services médicaux soulève cependant de sérieuses interrogations. Quelles données seraient partagées ? L’adresse IP, le numéro de téléphone, ou le nom de l’utilisateur ? Et à quelles autorités précises ?
Pour l’instant, ChatGPT se contente d’indiquer le numéro d’urgence de prévention du suicide lorsqu’un internaute exprime des idées suicidaires.
Contourner les pièges
Mais Sam Altman souhaite aller plus loin, notamment pour empêcher les « manipulations » de l’outil. Certaines personnes simuleraient un besoin d’aide pour obtenir des conseils dangereux, sous prétexte d’écrire une fiction ou de mener une recherche médicale. Le dirigeant envisage donc un blocage automatique des conversations à risque, en particulier pour les mineurs et les personnes fragiles psychologiquement.
Face au drame qui a touché les Raine, OpenAI a déjà annoncé, début septembre, l’activation de contrôles parentaux sur ChatGPT. Les parents du jeune homme réclament désormais que toute discussion portant sur l’automutilation soit interrompue immédiatement.