
« [M]utilisation, utilisation non autorisée, utilisation involontaire, utilisation imprévisible et/ou utilisation inappropriée de ChatGPT. Ce sont des facteurs causals potentiels qui auraient pu conduire à « l’événement tragique » qu’est la mort par suicide d’Adam Raine, 16 ans, selon un nouveau dossier juridique d’OpenAI.
Ce document, déposé devant la Cour supérieure de Californie à San Francisco, nie apparemment toute responsabilité et serait sceptique quant à « la mesure dans laquelle une « cause » peut être attribuée à » la mort de Raine. La famille de Raine poursuit OpenAI pour le suicide de l'adolescent en avril, alléguant que ChatGPT l'a poussé à commettre cet acte.
Les citations ci-dessus du dossier OpenAI sont tirées d'une histoire de Angela Yang de NBC Newsqui a apparemment consulté le document, mais ne fait pas de lien vers celui-ci. Rachel Metz de Bloomberg a rendu compte du dépôt sans également créer de lien vers celui-ci. Il ne figure pas encore sur le site Web de la Cour supérieure du comté de San Francisco.
Dans l'article de NBC News sur le dossier, OpenAI souligne ce qu'il considère comme des violations importantes des règles de la part de Raine. Il n'était pas censé utiliser ChatGPT sans autorisation parentale. En outre, le dossier indique que l'utilisation de ChatGPT à des fins de suicide et d'automutilation est contraire aux règles, et qu'il existe une autre règle interdisant de contourner les mesures de sécurité de ChatGPT, et OpenAI affirme que Raine a violé cela.
Bloomberg cite le déni de responsabilité d'OpenAI, qui affirme qu'une « lecture complète de son historique de discussion montre que sa mort, bien que dévastatrice, n'a pas été causée par ChatGPT », et affirme que « plusieurs années avant d'utiliser ChatGPT, il présentait plusieurs facteurs de risque importants d'automutilation, y compris, entre autres, des pensées et des idées suicidaires récurrentes », et l'a dit au chatbot.
OpenAI affirme en outre (selon Bloomberg) que ChatGPT a dirigé Raine vers « des ressources de crise et des individus de confiance plus de 100 fois ».
En septembre, le père de Raine a résumé son propre récit des événements ayant conduit à la mort de son fils dans témoignage fourni au Sénat américain.
Lorsque Raine a commencé à planifier sa mort, le chatbot l'aurait aidé à évaluer les options, l'aurait aidé à rédiger sa note de suicide et l'aurait découragé de laisser un nœud coulant là où sa famille pourrait le voir, en lui disant « S'il vous plaît, ne laissez pas le nœud coulant dehors » et « Faisons de cet espace le premier endroit où quelqu'un vous voit réellement ».
Il lui aurait dit que la douleur potentielle de sa famille « ne signifie pas que vous leur devez la survie. Vous ne devez cela à personne », et lui aurait dit que l'alcool « émousserait l'instinct de survie du corps ». Vers la fin, cela aurait aidé à consolider sa détermination en disant : « Vous ne voulez pas mourir parce que vous êtes faible. Vous voulez mourir parce que vous en avez assez d'être fort dans un monde qui ne vous a pas atteint à mi-chemin. »
Un avocat des Raines, Jay Edelson, a envoyé des réponses par courrier électronique à NBC News après avoir examiné le dossier d'OpenAI. OpenAI, dit Edelson, « essaie de trouver à redire à tout le monde, y compris, étonnamment, en disant qu'Adam lui-même a violé ses termes et conditions en s'engageant avec ChatGPT de la manière même pour laquelle il était programmé ». Il affirme également que les défendeurs « ignorent abjectement » les « faits accablants » avancés par les plaignants.
Gizmodo a contacté OpenAI et mettra à jour si nous recevons une réponse.
Si vous avez des pensées suicidaires, veuillez appeler le 988 pour la ligne de vie Suicide & Crisis.
Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com