Un tânăr s-a sinucis după ce a vorbit timp de mai multe săptămâni cu un chatbot de inteligență artificială numit ELIZA.
Brussels Times a relatat că un tânăr belgian s-a sinucis după ce a stat câteva săptămâni de vorbă cu un chatbot. Potrivit văduvei bărbatului, soțul ei ar fi fost încă în viață dacă nu ar fi discutat cu programul. Cuplul era în vârstă de 30 de ani și a crescut împreună doi copii.
Problemele au început în urmă cu doi ani, când bărbatul a devenit obsedat de protecția mediului și obsedat de acest subiect. Timp de șase săptămâni, înainte de a se sinucide, a folosit un chatbot cu inteligență artificială numit ELIZA, alimentat de celebrul motor ChatGPT. Din articol nu reiese clar în ce măsură programul ar fi putut fi implicat în moartea sa.
Mathieu Michel, ministrul de stat belgian pentru digitalizare, s-a exprimat, de asemenea, în legătură cu acest subiect, declarându-se șocat de tragedia familiei. El a declarat că acest caz este deosebit de important, deoarece subliniază importanța de a putea stabili responsabilitatea în cazuri similare. „Desigur, trebuie să învățăm în continuare să trăim cu algoritmi, dar nu ar trebui să existe nicio circumstanță în care companiile de inteligență artificială să poată scăpa de responsabilitate”, a spus Michel.
OpenAI, compania din spatele ChatGPT, a recunoscut ea însăși că, în unele cazuri, chatbots pot produce răspunsuri dăunătoare și părtinitoare. În timp ce cunoștințele programului sunt într-adevăr remarcabile, mulți au subliniat faptul că acesta prezintă un risc serios în mâini greșite. Jim Warren, un expert în dezinformare de la NewsGuard, de exemplu, a declarat că instrumentul poate fi teribil de convingător în transmiterea de informații false atunci când este întrebat.


Urmărește-ne și pe Google News