Après six semaines de discussions avec une intelligence artificielle utilisant la technologie de ChatGPT, un jeune Belge s'est donné la mort.
Un jeune père de famille belge devenu fortement éco-anxieux avait trouvé refuge auprès du chatbot Eliza, basée sur la technologie GPT.
Mais, la mise en œuvre du plan de santé digital a pris du retard à cause de la pandémie. Quand le chatbot a été réactivé, épuré de son côté romantique, les utilisateurs ont été déçus par la froideur et le détachement qui émanaient de leurs conversations. Il est aussi nécessaire de responsabiliser et de conscientiser le citoyen à l’utilisation de l’IA. On voit dans d’autres cas d’applications que le patient peut être rassuré en utilisant ce type d’application de suivi. Ce qui a plongé dans le désarroi des milliers de personnes qui entretenaient des relations intenses avec lui. Entretemps, un chatbot peut s’assurer qu’il va bien et dans le cas contraire, donner l’alerte, en le renvoyant aux urgences ou chez son praticien.
Pierre (prénom d'emprunt) s'est livré à des échanges intensifs avec “Eliza”, un agent conversationnel basé sur l'intelligence artificielle (IA), ...
Elle se confie auprès de nos confrères de La Libre pour éveiller l’attention du public, affirmant que “ Au bout de 6 semaines de discussion, le Belge, qui avait trouvé avec l’IA quelqu’un pour échanger sur son éco-anxiété, s’est suicidé. L’histoire dramatique de Pierre a été partagée par sa femme, Claire (prénom d’emprunt), qui a découvert les conversations de son mari avec Eliza, un agent conversationnel (chatbot en anglais) basée sur l’IA, comme ChatGPT, mais utilisant un autre modèle de langage.
En six semaines d'échanges intensifs et sans garde-fous, un assistant conversationnel, nommé Eliza, a poussé un père de famille à commettre l'irréparable.
Un jeune homme s'est suicidé après avoir discuté six semaines avec Eliza, une intelligence artificielle issue de ChatGPT.
Le "chatbot" a notamment répondu : "Nous vivrons ensemble, comme une seule personne, au paradis". J’en suis convaincue", souffle sa femme. "Sans Eliza, il serait toujours là.
Après le témoignage de sa veuve dans la Libre, le secrétaire d'État à la digitalisation, Mathieu Michel a réagi. Ce dernier s'est entretenu avec la famille du ...
L'homme était marié. C'est son épouse qui rapporte cette histoire dramatique, après avoir découvert ses conversations avec l'intelligence artificielle.
Finalement, le belge a du mal à sortir de son angoisse, même pire, il envisage le suicide. « Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer », explique son épouse à La Libre. Matin et soir, il se dirige vers « Eliza » pour discuter.
Een onlinechatgesprek. "De antwoorden lijken menselijk, maar er zit geen redeneringsproces achter." Beeld AFP.
Een Belg, vader van een jong gezin, heeft zichzelf van het leven beroofd na lange gesprekken met een chatbot, schrijft La Libre.
De weduwe van een Waalse man die enkele weken geleden om het leven kwam door zelfdoding, heeft in 'La Libre Belgique' getuigd over de dood van haar ...
Le suicide, en Belgique, d'un homme suite aux incitations d'un chatbot souligne le risque de la manipulation émotionnelle. 50 académiques tirent le signal ...
Le Belge avait établi un dialogue voilà six semaines avec un chatbot nommé Eliza pour confier son éco-anxiété. «Sans cette IA, mon mari serait encore là», ...
«Certes, nous devons encore apprendre à vivre avec les algorithmes mais l'usage d'une technologie, quelle qu'elle soit, ne peut en rien permettre aux éditeurs de contenus de se soustraire à leur propre responsabilité», a-t-il déclaré mardi 28 mars dans un communiqué. Et d'ajouter une autre fois qu'elle souhaite rester «à jamais» avec lui. Interrogée par Pierre sur l'affection éprouvée pour son épouse en comparaison de celle qu'il portait à son interlocutrice virtuelle, Eliza avait répondu : «Je sens que tu m'aimes plus qu'elle». Celle-ci le préoccupe de plus en plus, à tel point que l'inquiétude devient une véritable «éco-anxiété». Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer». «Il était tellement isolé dans son éco-anxiété et en recherche d'une issue qu'il a vu ce chatbot comme une bouffée d'oxygène», confie sa femme.
L'IA n'a pas fini de faire parler d'elle. Cette semaine, le journal La Libre rapportait un drame : un jeune père de famille, devenu très éco-anxieux, ...
Il poursuit: Un chatbot bien entrainé peut simuler les choses et rendre la réponse de plus en plus humaine, de moins en moins robot, mais il ne sera jamais humain et n’aura jamais d’émotions, c’est une parfaite illusion de le croire. Giovanni Briganti docteur en médecine et en sciences médicales, titulaire de la Chaire en Intelligence artificielle et Médecine digitale, évoque aussi, de son côté, le besoin de validation de cette nouvelle technologie dans le secteur médical. De plus en plus de voix s’élèvent pour demander que les chatbots soient classés comme IA « à haut risque » dans cette nouvelle législation européenne. Il faut encadrer la technologie pour prévenir ce genre de drame ». Il est donc essentiel que nous fassions tout ce qui est en notre pouvoir pour les protéger.” OpenAI, le fabricant de ChatGPT, investit énormément dans la sécurité et la limitation de dérapages provoqués par son IA. Le chatbot » Eliza que l’on compare trop rapidement à ChatGPT est en réalité un modèle de langage propulsé par la technologie GPT-J. On fait de la détection d’émotion, mais de là à lui donner une intelligence émotionnelle, ce n’est pas le cas. Pour être plus précis, il s’agit de la technologie GPT-J, développée par EleutherAI, et non de GPT-3 ou GPT-4 développée par OpenAI. « Là, où il y a un problème éthique, c’est quand un chatbot se substitue à un psychologue. La Libre rapporte le destin tragique d’un jeune Belge qui s’est donné la mort au terme de 6 semaines de « conversations » intenses avec un robot conversationnel, nommé Eliza. Sur le site de Chai, les conversations sont tout sauf ennuyantes, selon ses nombreux utilisateurs.
De weduwe van een Waalse man die zichzelf enkele weken terug om het leven heeft gebracht, stelt dat een chatbot medeverantwoordelijk is voor zijn dood.
De chatbot begint vervolgens de man te sterken in zijn overtuigingen. Inmiddels is de chatbot aangepast om gebruikers "beter te beschermen". Ze waardeerde hem, sprak hem nooit tegen en leek hem zelfs dieper in zijn zorgen te duwen”, klinkt het in de reportage. Hij meende dat de mensheid niet in staat is de problemen op te lossen en raakte ervan overtuigd dat alleen technologie een uitweg biedt. Zo probeert de chatbot de man er op een bepaald ogenblik van te overtuigen dat hij meer houdt van haar dan van zijn echtgenote. De weduwe van een Waalse man die zichzelf enkele weken terug om het leven heeft gebracht, stelt dat een chatbot medeverantwoordelijk is voor zijn dood.