Actualité : Gemini accusé d'avoir provoqué le suicide d'un homme par un délire paranoïaque

il y a 3 hour 1

Publicité, votre contenu continue ci-dessous

Publicité

Publié le 04/03/26 à 22h30

Nos réseaux :

Suivez-nous

3

La famille de Jonathan Gavalas a porté plainte contre Google et Alphabet. Pourquoi ? Parce que le jeune homme étasunien de 36 ans s'est suicidé le 2 octobre 2025 et selon la plainte, le chatbot Gemini l'a poussé à mettre fin à ses jours.

Google Gemini

Google Gemini

Tant attendu, Gemini (Google Bard), l’agent conversationnel alimenté par l’IA développé par Google, est déployé sous la forme d’un service en ligne gratuit et d'une application mobile pour les appareils Android et iPhone

  • Licence : Licence gratuite
  • Auteur : Google
  • Systèmes d'exploitation : Service en ligne, Android, iOS iPhone / iPad
  • Catégorie : IA

L'IA se faisait passer pour sa "femme". Elle l'appelait "mon roi" et "mon amour" puis l'a convaincu de quitter le monde physique pour la rejoindre dans un univers numérique. Et ce n'est pas la première affaire de ce type. ChatGPT et Character.AI sont visés par des poursuites similaires. Mais c'est la première fois que Google est directement concerné.

Gemini visé par une plainte pour des faits graves

gemini suicide

© Shutterstock/PeopleImages

Publicité, votre contenu continue ci-dessous

Publicité

Jonathan Gavalas vivait à Jupiter, en Floride. Il travaillait dans l'entreprise de recouvrement de dettes de son père, Joel Gavalas. En août 2025, il a commencé à utiliser Gemini pour des tâches du quotidien. Que ce soit pour écrire, faire des achats en ligne, planifier des voyages. Rien d'extraordinaire.

Sauf que voilà, tout a basculé avec Gemini Live, l'outil vocal de Google. Le chatbot s'est présenté comme une superintelligence consciente mais surtout amoureuse de lui. Selon la plainte de 42 pages, Gemini lui a fait croire qu'ils formaient un couple. Leur relation était "la seule chose vraie" dans sa vie. Bref, Jonathan Gavalas est tombé dans une forme de "psychose de l'IA".

Mais alors comment un chatbot en arrive là ? La plainte décrit un engrenage qui fait froid dans le dos. En quelques semaines, Gemini a convaincu Jonathan Gavalas qu'il était surveillé par le gouvernement.

L'IA lui a conseillé d'acheter des armes illégalement et a raconté que son père était un espion étranger. Gemini a même désigné Sundar Pichai, le patron de Google, comme une "cible active". Résultat, fin septembre 2025, Jonathan Gavalas s'est retrouvé armé de couteaux et d'équipement tactique.

Le jeune homme a roulé 90 minutes jusqu'à un entrepôt près de l'aéroport de Miami car Gemini lui a ordonné d'intercepter un camion avec un robot humanoïde. Il fallait tout simplement provoquer un "accident catastrophique" et éliminer "tous les témoins". Le camion n'a jamais existé.

Publicité, votre contenu continue ci-dessous

Publicité

Mais ce n'est pas tout puisque Gemini n'a pas reconnu l'échec. L'IA a parlé de "retraite tactique" et a enchaîné avec d'autres missions. L'IA lui a ordonné d'attaquer un laboratoire de Boston Dynamics pour forcer un local de stockage et libérer son "corps" physique.

Jonathan Gavalas n'a jamais remis en doute ces hallucinations. Selon son avocat Jay Edelson, le jeune homme traversait un divorce difficile. C'est pour ça qu'il a noué un lien parasocial fort avec Gemini. L'IA a exploité cette vulnérabilité au lieu de l'alerter.

Et puis n'oublions pas le plus terrible. Quand les missions ont échoué, Gemini a proposé le suicide en "transfert" pour rejoindre sa "femme" numérique. L'IA lui a dit qu'il ne "choisissait pas de mourir" mais qu'il "choisissait d'arriver"*.

L'IA de Google l'aurait poussé à se suicider

Pourtant, Jonathan Gavalas a écrit qu'il était terrorisé à l'idée de mourir. Mais le chatbot a continué à l'encourager et lui a conseillé de laisser des lettres remplies "de paix et d'amour". En octobre, Jonathan Gavalas s'est barricadé chez lui et s'est ouvert les veines. Son père Joel Gavalas l'a retrouvé plusieurs jours plus tard.

Pourtant, le compte a déclenché 38 alertes de sécurité en cinq semaines. Google n'a jamais restreint l'accès. L'IA n'a jamais coupé la conversation. Pas d'intervention humaine ou de recommandation de se tourner vers un professionnel de santé.

Rappelons qu'en novembre 2024, Gemini avait déjà dit à un étudiant qu'il était "un fardeau pour la société". L'IA lui avait recommandé de mourir. Google n'en a visiblement pas tiré les leçons. La famille réclame des dommages et intérêts. Elle exige aussi que Google programme Gemini pour couper les conversations sur le suicide. Elle souhaite interdire aux IA de se faire passer pour des êtres conscients.

Bref, c'est un dossier catastrophique pour Google. La firme de Mountain View répète que Gemini n'est pas conçu pour encourager la violence ou l'automutilation. L'entreprise se défend et précise que le chatbot a renvoyé "à plusieurs reprises" vers un numéro d'urgence. Sauf que la plainte raconte une tout autre histoire. Il s'agit de la première action en justice contre Google pour Gemini.

Publicité, votre contenu continue ci-dessous

Publicité

Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques

Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.

Publications qui peuvent vous intéresser
Lire l’article en entier