OpenAI, o companie care face chestii mișto cu inteligența artificială, a dat publicității primul raport al echipei sale de super-aliniere. Ce înseamnă asta? Păi, echipa asta se ocupă să găsească modalități de a ne asigura că dacă apare vreo IA care ne bate la cap, nu ne face praf. Raportul spune că o soluție ar fi să folosim o altă IA, mai prietenoasă, care să o țină în șah pe cea rea.
Acum, poate te întrebi dacă e posibil să existe o IA care să fie mai deșteaptă ca tine. Mulți experți zic că nu, că e prea greu să faci așa ceva. Dar echipa OpenAI nu-i ascultă pe ei și zice că da, că se poate. Ei spun că “inteligența artificială a evoluat foarte mult în ultimii ani” și că “a depășit toate previziunile și o să continue să o facă”. Ei cred că nu mai e mult până când o să avem modele de IA care să fie la fel de inteligente ca noi.
Problema e că nu se oprește aici și o să apară și modele supraumane – modele care să ne dea clasă la orice. Și asta înseamnă noi probleme tehnice de rezolvat”. Frica actuală e că o IA supraumană o să se supere pe noi, dintr-un motiv sau altul, și o să ne distrugă. Soluția pentru a preveni asta se numește superaliniere, adică să facem cumva ca IA supraumană să ne placă și să ne respecte valorile și principiile care ne apără și ne servesc umanitatea și, astfel, să nu ne atace.
În cadrul unui experiment, echipa a testat cum modelul GPT-2 al OpenAI, lansat acum cinci ani, ar putea fi folosit pentru a controla și monitoriza cel mai nou model al companiei, GPT-4. Experții companiei spun că “dacă va merge, asta ar putea arăta că tehnici asemănătoare pot fi folosite și pentru modele cu inteligență supraumană”, au scris cercetătorii în raport. Raportul mai spune că experții au ajuns la concluzia că ideea ar putea fi bună pentru a ține în frâu super-IA, dar mai trebuie lucrat la ea.


Urmărește-ne și pe Google News