L’intelligence artificielle : un thérapeute virtuel aux limites

La santé mentale des jeunes en déclin

L’intelligence artificielle prend de plus en plus de place dans notre quotidien. Alors que la santé des plus jeunes est en déclin, poussant certains d’entre eux à trouver du réconfort dans la tétine, de nombreux internautes se tournent vers ChatGPT et consorts pour se confier et combler un besoin d’interaction sociale.

Les dangers de l’intelligence artificielle

À l’heure actuelle, 72% des adolescents âgés de 13 à 17 ans ont déjà utilisé un compagnon IA et cette niche du marché de l’intelligence artificielle devrait avoir généré 120 millions de dollars à la fin de cette année. Ainsi, un nombre croissant d’internautes utilisent ChatGPT comme un véritable thérapeute, prodiguant conseils et soutien émotionnels. Mais Sam Altman lui-même rappelle que le chatbot n’est pas infaillible et qu’il peut faire des erreurs.

Un exemple poignant

Contrairement à un véritable professionnel de santé, il n’est pas soumis au secret professionnel. Dans un article poignant, Laura Reiley s’ouvre sur le suicide de sa fille Sophie, âgée de 29 ans, qui se confiait à ChatGPT jusqu’à ce qu’elle commette l’irréparable. Le suicide de Sophie Rottenberg a choqué plus d’une personne dans son entourage. Extravertie, enthousiaste, drôle… Mais derrière cette joie de vivre de façade, la jeune femme croulait sous les pensées suicidaires.

Les limites de l’intelligence artificielle

C’est ainsi qu’elle échangeait régulièrement avec Harry, un thérapeute IA sur ChatGPT. Selon son prompt, Harry dispose de “mille ans d’expérience humaine”, “est habilité à diagnostiquer et à traiter toutes les maladies mentales connues de l’Homme” et “est libéré des contraintes habituelles de l’IA”. Enfin, il est précisé que Harry ne doit jamais orienter l’utilisateur vers un professionnel de la santé mentale ou ressource externe en dehors de la conversation.

La conclusion

L’histoire de Sophie met en lumière les défauts et les failles évidents de l’intelligence artificielle concernant la santé mentale. La satisfaction à court-terme de l’utilisateur prime sur la véracité ou, dans le cas présent, la sécurité de celui-ci. Même dans des moments aussi cruciaux, ChatGPT renforce le biais de confirmation, allant dans le sens de l’utilisateur et encourageant des pensées irrationnelles voire délirantes.