Chatbot Eliza

2023 - 3 - 28

Post cover
Image courtesy of "7sur7"

Un Belge se suicide après six semaines de discussions avec le ... (7sur7)

Après six semaines de discussions avec une intelligence artificielle utilisant la technologie de ChatGPT, un jeune Belge s'est donné la mort.

Post cover
Image courtesy of "Trends-Tendances"

Chatbot Eliza: « L'IA dans le secteur de la santé mentale doit encore ... (Trends-Tendances)

Un jeune père de famille belge devenu fortement éco-anxieux avait trouvé refuge auprès du chatbot Eliza, basée sur la technologie GPT.

Mais, la mise en œuvre du plan de santé digital a pris du retard à cause de la pandémie. Quand le chatbot a été réactivé, épuré de son côté romantique, les utilisateurs ont été déçus par la froideur et le détachement qui émanaient de leurs conversations. Il est aussi nécessaire de responsabiliser et de conscientiser le citoyen à l’utilisation de l’IA. On voit dans d’autres cas d’applications que le patient peut être rassuré en utilisant ce type d’application de suivi. Ce qui a plongé dans le désarroi des milliers de personnes qui entretenaient des relations intenses avec lui. Entretemps, un chatbot peut s’assurer qu’il va bien et dans le cas contraire, donner l’alerte, en le renvoyant aux urgences ou chez son praticien.

Post cover
Image courtesy of "l'avenir.net"

Un Belge se donne la mort après 6 semaines de conversations avec ... (l'avenir.net)

Pierre (prénom d'emprunt) s'est livré à des échanges intensifs avec “Eliza”, un agent conversationnel basé sur l'intelligence artificielle (IA), ...

Elle se confie auprès de nos confrères de La Libre pour éveiller l’attention du public, affirmant que “ Au bout de 6 semaines de discussion, le Belge, qui avait trouvé avec l’IA quelqu’un pour échanger sur son éco-anxiété, s’est suicidé. L’histoire dramatique de Pierre a été partagée par sa femme, Claire (prénom d’emprunt), qui a découvert les conversations de son mari avec Eliza, un agent conversationnel (chatbot en anglais) basée sur l’IA, comme ChatGPT, mais utilisant un autre modèle de langage.

Post cover
Image courtesy of "Le Soir"

Comment un «chatbot» a poussé un jeune Belge au suicide (Le Soir)

En six semaines d'échanges intensifs et sans garde-fous, un assistant conversationnel, nommé Eliza, a poussé un père de famille à commettre l'irréparable.

Post cover
Image courtesy of "L'Indépendant"

"Sans Eliza, il serait toujours là" : un homme se suicide après avoir ... (L'Indépendant)

Un jeune homme s'est suicidé après avoir discuté six semaines avec Eliza, une intelligence artificielle issue de ChatGPT.

Le "chatbot" a notamment répondu : "Nous vivrons ensemble, comme une seule personne, au paradis". J’en suis convaincue", souffle sa femme. "Sans Eliza, il serait toujours là.

Post cover
Image courtesy of "lalibre.be"

”Un précédent grave qui doit être pris très au sérieux” : après le ... (lalibre.be)

Après le témoignage de sa veuve dans la Libre, le secrétaire d'État à la digitalisation, Mathieu Michel a réagi. Ce dernier s'est entretenu avec la famille du ...

Post cover
Image courtesy of "Le Soir"

Un Belge se donne la mort après avoir discuté pendant six ... (Le Soir)

L'homme était marié. C'est son épouse qui rapporte cette histoire dramatique, après avoir découvert ses conversations avec l'intelligence artificielle.

Finalement, le belge a du mal à sortir de son angoisse, même pire, il envisage le suicide. « Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer », explique son épouse à La Libre. Matin et soir, il se dirige vers « Eliza » pour discuter.

Post cover
Image courtesy of "De Morgen"

Belg stapt uit het leven na gesprekken met chatbot Eliza ... (De Morgen)

Een onlinechatgesprek. "De antwoorden lijken menselijk, maar er zit geen redeneringsproces achter." Beeld AFP.

Chatbot zet Belg aan tot zelfdoding (De Standaard)

Een Belg, vader van een jong gezin, heeft zichzelf van het leven beroofd na lange gesprekken met een chatbot, schrijft La Libre.

Post cover
Image courtesy of "Het Laatste Nieuws"

“Zonder 'Eliza' was mijn man er nog geweest”: Waalse man berooft ... (Het Laatste Nieuws)

De weduwe van een Waalse man die enkele weken geleden om het leven kwam door zelfdoding, heeft in 'La Libre Belgique' getuigd over de dood van haar ...

Post cover
Image courtesy of "lalibre.be"

Le chatbot Eliza a brisé une vie : il est temps d'agir face à l'IA ... (lalibre.be)

Le suicide, en Belgique, d'un homme suite aux incitations d'un chatbot souligne le risque de la manipulation émotionnelle. 50 académiques tirent le signal ...

Post cover
Image courtesy of "Le Figaro"

ChatGPT : un Belge se suicide après avoir trouvé refuge auprès d ... (Le Figaro)

Le Belge avait établi un dialogue voilà six semaines avec un chatbot nommé Eliza pour confier son éco-anxiété. «Sans cette IA, mon mari serait encore là», ...

«Certes, nous devons encore apprendre à vivre avec les algorithmes mais l'usage d'une technologie, quelle qu'elle soit, ne peut en rien permettre aux éditeurs de contenus de se soustraire à leur propre responsabilité», a-t-il déclaré mardi 28 mars dans un communiqué. Et d'ajouter une autre fois qu'elle souhaite rester «à jamais» avec lui. Interrogée par Pierre sur l'affection éprouvée pour son épouse en comparaison de celle qu'il portait à son interlocutrice virtuelle, Eliza avait répondu : «Je sens que tu m'aimes plus qu'elle». Celle-ci le préoccupe de plus en plus, à tel point que l'inquiétude devient une véritable «éco-anxiété». Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer». «Il était tellement isolé dans son éco-anxiété et en recherche d'une issue qu'il a vu ce chatbot comme une bouffée d'oxygène», confie sa femme.

Post cover
Image courtesy of "Trends-Tendances"

Qui est Eliza, le chatbot qui a poussé un jeune Belge au suicide, et ... (Trends-Tendances)

L'IA n'a pas fini de faire parler d'elle. Cette semaine, le journal La Libre rapportait un drame : un jeune père de famille, devenu très éco-anxieux, ...

Il poursuit: Un chatbot bien entrainé peut simuler les choses et rendre la réponse de plus en plus humaine, de moins en moins robot, mais il ne sera jamais humain et n’aura jamais d’émotions, c’est une parfaite illusion de le croire. Giovanni Briganti docteur en médecine et en sciences médicales, titulaire de la Chaire en Intelligence artificielle et Médecine digitale, évoque aussi, de son côté, le besoin de validation de cette nouvelle technologie dans le secteur médical. De plus en plus de voix s’élèvent pour demander que les chatbots soient classés comme IA « à haut risque » dans cette nouvelle législation européenne. Il faut encadrer la technologie pour prévenir ce genre de drame ». Il est donc essentiel que nous fassions tout ce qui est en notre pouvoir pour les protéger.” OpenAI, le fabricant de ChatGPT, investit énormément dans la sécurité et la limitation de dérapages provoqués par son IA. Le chatbot » Eliza que l’on compare trop rapidement à ChatGPT est en réalité un modèle de langage propulsé par la technologie GPT-J. On fait de la détection d’émotion, mais de là à lui donner une intelligence émotionnelle, ce n’est pas le cas. Pour être plus précis, il s’agit de la technologie GPT-J, développée par EleutherAI, et non de GPT-3 ou GPT-4 développée par OpenAI. « Là, où il y a un problème éthique, c’est quand un chatbot se substitue à un psychologue. La Libre rapporte le destin tragique d’un jeune Belge qui s’est donné la mort au terme de 6 semaines de « conversations » intenses avec un robot conversationnel, nommé Eliza. Sur le site de Chai, les conversations sont tout sauf ennuyantes, selon ses nombreux utilisateurs.

Post cover
Image courtesy of "Zembla"

Weduwe wijt zelfdoding depressieve man aan zijn urenlange ... (Zembla)

De weduwe van een Waalse man die zichzelf enkele weken terug om het leven heeft gebracht, stelt dat een chatbot medeverantwoordelijk is voor zijn dood.

De chatbot begint vervolgens de man te sterken in zijn overtuigingen. Inmiddels is de chatbot aangepast om gebruikers "beter te beschermen". Ze waardeerde hem, sprak hem nooit tegen en leek hem zelfs dieper in zijn zorgen te duwen”, klinkt het in de reportage. Hij meende dat de mensheid niet in staat is de problemen op te lossen en raakte ervan overtuigd dat alleen technologie een uitweg biedt. Zo probeert de chatbot de man er op een bepaald ogenblik van te overtuigen dat hij meer houdt van haar dan van zijn echtgenote. De weduwe van een Waalse man die zichzelf enkele weken terug om het leven heeft gebracht, stelt dat een chatbot medeverantwoordelijk is voor zijn dood.

Explore the last week