Inteligența artificială (AI) este tot mai folosită pentru a alege candidații la un loc de muncă, dar nu întotdeauna în mod corect și transparent. Uneori, AI-ul poate avea prejudecăți ascunse, care îi afectează pe cei care merită să fie angajați. Așa arată un reportaj BBC, care dezvăluie câteva cazuri șocante de discriminare și eroare din partea AI-ului.
Companiile folosesc tot felul de programe bazate pe AI pentru a selecta candidații la un loc de muncă. Aceste programe analizează limbajul corporal, vocea, CV-ul, testele de jocuri și alte criterii pentru a decide dacă o persoană se potrivește cu postul dorit. Se credea că AI-ul va face procesul de recrutare mai rapid și mai echitabil, dar se pare că nu e așa. După cum spune un cercetător citat de BBC, problema nu e că AI-ul ne ia locurile de muncă, ci că ne împiedică să le obținem pe cele potrivite.
Există multe exemple de persoane care au fost respinse de AI fără motiv, în ciuda experienței și calificărilor lor. Unii au fost eliminați din start, doar pentru că aveau o dată de naștere greșită în CV. Alții au fost respinși după interviu, doar pentru că AI-ul nu le-a plăcut limbajul corporal. Și nu e vorba doar de greșeli individuale, ci și de discriminare sistematică.
AI-ul învață din CV-urile celor care lucrează deja în companii, fără să țină cont de alte aspecte. Astfel, poate exclude un grup de candidați pe baza unor motive arbitrare sau necunoscute. Un caz celebru este cel al Amazon, care a încercat să dezvolte un algoritm pentru a simplifica recrutarea, dar a eșuat lamentabil. Sistemul, care se baza în mare parte pe CV-uri de bărbați, a făcut legătura între sexul candidaților și aptitudinile acestora, până la punctul de a acorda puncte în minus chiar și în cazul în care pe un CV apărea termenul „femeie” în orice context.
Nu se vede pădurea de copaci
Situația s-a înrăutățit de atunci, potrivit BBC, pe măsură ce mai multe companii au adoptat tehnologii similare. Pe lângă discriminarea pe bază de gen, rasă, vârstă sau alte caracteristici, există și cazuri în care AI-ul face greșeli absurde, care nu au nicio logică. De exemplu, într-un experiment, AI-ul a apreciat recomandările de pe LinkedIn ale unei persoane, dar a penalizat-o când a vorbit în germană la un interviu în engleză. Așa se vede că, în timp ce un om poate fi părtinitor, un algoritm poate fi complet irațional.
Potrivit BBC, Hilke Schellmann, cercetător la Universitatea din New York, crede ca cea mai mare problemă este că nimeni nu știe cât de mult rău face AI-ul, și nici nu are interes să afle. Companiile folosesc AI-ul pentru a economisi bani, nu pentru a face dreptate. Companiile de software care le vând AI-ul nu sunt transparente și nu își asumă responsabilitatea pentru defectele produselor lor, riscând să fie date în judecată. Singura soluție ar fi să existe o reglementare a industriei și să se folosească niște instrumente care să arate când și cum AI-ul este părtinitor, oferind o imagine de ansamblu asupra modului în care selectează candidații.
Urmărește-ne și pe Google News