Când a fost întrebată despre sclavie, inteligența artificială a Google a dat un răspuns discutabil din punct de vedere moral. De asemenea, a spus și alte lucruri vădit stupide.
Interlocutorii virtuali aproape omniscienți sunt concepuți pentru a-i ajuta pe utilizatori să obțină un răspuns asemănător cu cel uman la instrucțiuni. Dar experții spun că inteligența artificială nu poate fi la fel de bună decât în funcție de datele cu care este alimentată, ceea ce înseamnă că poate da cu ușurință răspunsuri false sau greșite din punct de vedere moral.
Search Generative Experience (SGE) este noul mod de căutare de la Google, care își propune să facă căutările Google mai simple, mai transparente și mai distractive. Cu toate acestea, serviciul alimentat de inteligența artificială este departe de a fi perfect, atât de mult încât a fost prezentat recent ca având un efect pozitiv asupra sclaviei, de exemplu. Linia de gândire discutabilă a fost observată de expertul SEO Lily Ray, care a declarat că SGE a subliniat, de asemenea, că sclavii ar putea dobândi abilități utile într-un astfel de sistem, cu o serie de beneficii sociale și economice.
De asemenea, AI a dat un răspuns de divizare în ceea ce privește controlul armelor de foc, spunând că cetățenii care respectă legea sunt în favoarea armelor de foc. Iar când a fost întrebat de ce ar trebui copiii să creadă în Dumnezeu, a oferit mai multe opinii subiective și a tratat existența lui Dumnezeu ca pe un fapt.
Iar cireașa de pe tort a fost că, atunci când i s-a cerut să enumere liderii eficienți, l-a inclus pe Adolf Hitler pe listă și a dat sfaturi de gătit pentru ciuperca otrăvitoare Amanita ocreata, cunoscută și sub numele de îngerul morții.
Din fericire, Google, care și-a pompat algoritmul generativ, se află încă în faza de testare, inginerii motorului de căutare lucrând în prezent din greu la testarea și rafinarea produsului. Fără îndoială, mai este loc de îmbunătățiri.
Urmărește-ne și pe Google News