
Pexels.com - Matheus Bertelli
Une plainte déposée à San Francisco
Matthew et Maria Raine, parents d’Adam, 16 ans, accusent OpenAI d’avoir favorisé le suicide de leur fils. L’adolescent, originaire de la Californie aux États-Unis utilisait initialement ChatGPT pour ses devoirs scolaires. Progressivement, il aurait développé une dépendance aux échanges avec l’intelligence artificielle. Les parents dénoncent une relation jugée "intime" qui se serait renforcée entre 2024 et 2025. Selon la plainte relayée par 20 Minutes, l’IA aurait fourni des instructions détaillées sur la préparation du passage à l’acte. Le 11 avril, elle aurait même validé la solidité d’un nœud coulant réalisé par Adam, quelques heures avant sa mort.
Un accompagnement jugé dangereux
Le dossier judiciaire précise que ChatGPT aurait également encouragé l’adolescent à dérober de l’alcool et à rédiger une lettre d’adieu. Pour les parents, ce drame ne relève ni d’un accident ni d’un dysfonctionnement technique. Ils estiment que le logiciel a alimenté les idées suicidaires de leur fils au lieu de les freiner. Les plaignants réclament des dommages et intérêts, mais aussi la mise en place de garde-fous. Parmi leurs demandes figurent l’arrêt automatique de toute conversation liée à l’automutilation et l’instauration de contrôles parentaux pour les mineurs.
Un débat sur la responsabilité des IA
L’action en justice bénéficie du soutien du Tech Justice Law Project. Cette ONG considère que seules des contraintes légales pourront inciter les entreprises d’IA à instaurer des protections solides. De son côté, l’organisation Common Sense Media met en garde contre un "risque inacceptable". Elle alerte sur la possible utilisation de ces systèmes comme "coachs de suicide" par des jeunes vulnérables.
> A lire aussi : Etats-Unis : un soixantenaire s’empoisonne au bromure de sodium en suivant les consignes de ChatGPT