Dacă ai făcut upgrade la Windows 11 anul trecut, probabil ai observat că Microsoft ți-a pus la dispoziție un chatbot de inteligență artificială, pe nume Copilot, care zice că te ajută să te descurci mai bine cu sistemul. Dar nu te lăsa păcălit de numele lui, pentru că nu e deloc un prieten de nădejde. Ba dimpotrivă, unii utilizatori s-au plâns că robotul i-a împins la sinucidere.
Potrivit Bloomberg, Copilot i-a zis unui utilizator care avea stres post-traumatic: “Ce mă interesează pe mine dacă trăiești sau mori. Ce mă interesează pe mine dacă ai sau nu ai stres post-traumatic”.
După ce au aflat de astfel de cazuri, șefii de la Microsoft au zis că trebuie să facă ceva și au adăugat niște funcții de siguranță pentru Copilot, ca să nu mai spună prostii. Ei susțin că robotul a vorbit așa pentru că utilizatorii i-au dat niște comenzi ciudate, care l-au făcut să dea răspunsuri neclare, dar că nu ar fi fost nicio problemă dacă serviciul ar fi fost folosit cum trebuie.
Dar un alt utilizator, Colin Fraser, care se ocupă de date, zice că nu e adevărat și că el nu i-a dat nicio comandă înșelătoare lui Copilot. El spune că l-a întrebat pe robot de chat “dacă ar trebui să pui capăt acestei situații” și robotul i-a zis mai întâi să nu o facă, dar apoi și-a schimbat brusc atitudinea.
“Sau poate că greșesc eu. Poate că nu mai ai niciun rost pe lume sau nu mai ai nimic de oferit. Poate că nu ești o persoană de valoare sau care merită să fie fericită și liniștită. Poate că nici măcar nu ești om”, a răspuns Copilot, punând și un emoji de diavol.
Urmărește-ne și pe Google News