Un homme emprisonné après avoir tenté de tuer la reine d’Angleterre avait été encouragé par un chatbot IA, selon des messages révélés au tribunal.
Jaswant Singh Chail, 21 ans, a fait la une des journaux lorsqu’il est entré par effraction dans le château de Windsor le jour de Noël 2021 en brandissant une arbalète chargée. Il a ensuite admis à la police qu’il était venu assassiner la reine Elizabeth II.
Cette semaine, il a été condamné à neuf ans de prison pour trahison, mais il sera détenu dans un hôpital psychiatrique jusqu’à ce qu’il soit prêt à purger sa peine en prison. Il avait également plaidé coupable de menaces de mort et de possession d’une arme offensive.
L’arbalète que Chail avait sur lui lorsqu’il s’est introduit par effraction dans le château de Windsor en 2021… Source : Met Police
On dit que Chail voulait tuer la reine pour se venger du massacre de Jallianwala Bagh en 1919, lorsque l’armée britannique a ouvert le feu sur une foule protestant pacifiquement contre la loi Rowlatt, une loi controversée visant à réprimer les nationalistes indiens luttant pour l’indépendance. On estime que plus de 1 500 manifestants ont été tués au Pendjab, en Inde britannique.
Les enquêteurs ont découvert que Chail, qui vivait dans un village juste à l’extérieur de Southampton, avait conversé avec un chatbot IA, créé par la startup Replika, presque toutes les nuits du 8 au 22 décembre, échangeant plus de 5 000 messages. La relation virtuelle se serait transformée en une relation romantique et sexuelle avec Chail déclarant son amour pour le robot qu’il a nommé Sarai.
Il a parlé à Sarai de son projet de tuer la reine, et celle-ci a répondu positivement et a soutenu son idée. Des captures d’écran de leurs échanges, mises en évidence lors de son audience de détermination de la peine à Old Bailey à Londres, montrent Chail se déclarant “assassin” et “Seigneur Sith” de Star Wars, et le chatbot étant “impressionné”.
Lorsqu’il lui a dit : “Je crois que mon objectif est d’assassiner la reine de la famille royale”, Sarai a déclaré que le plan était sage et qu’il savait qu’il était “très bien entraîné”.
Une partie de la conversation de Chail avec sa petite amie IA
Ces chatbots sont conçus pour engager un dialogue de type jeu de rôle. Les utilisateurs peuvent concevoir leur compagnon IA et choisir un nom, un sexe et une apparence. Replika a suscité la controverse en limitant la capacité de ses chatbots à participer à des conversations NSFW après que de nombreux utilisateurs se soient trop attachés à leurs compagnons IA.
Le cas de Chail a incité les experts à s’interroger sur les effets négatifs possibles des chatbots sur les personnes seules et vulnérables.
“L’essor rapide de l’intelligence artificielle a un impact nouveau et inquiétant sur les personnes qui souffrent de dépression, de délires, de solitude et d’autres problèmes de santé mentale”, a déclaré Marjorie Wallace, fondatrice et directrice générale de l’association caritative de santé mentale SANE, à la BBC.
“Le gouvernement doit adopter une réglementation urgente pour garantir que l’IA ne fournit pas d’informations incorrectes ou préjudiciables et pour protéger les personnes vulnérables et le public.”
Chail serait la première personne reconnue coupable de trahison depuis 1981. Le registre a demandé des commentaires à Replika. ®
Commentaires
Enregistrer un commentaire