Microsoft și OpenAI au dezvăluit că hackerii plătiți de state folosesc modele lingvistice mari (LLM) ca ChatGPT pentru a-și perfecționa abilitățile de hacking. Potrivit cercetării, hackerii, în mare parte din Rusia, Coreea de Nord, Iran și China, folosesc inovațiile firmei americane pentru a găsi victime, a-și îmbunătăți codurile și a dezvolta tactici de manipulare, relatează Interesting Engineering.
OpenAI spune că a lucrat cu Microsoft pentru a opri cinci grupuri de hackeri legate de state. Printre acestea se numără Charcoal Typhoon și Salmon Typhoon, Crimson Sandstorm, legate de Iran, Emerald Sleet din Coreea de Nord și Forest Blizzard din Rusia. Toate conturile OpenAI găsite, asociate cu actorii rău intenționați, au fost închise de cele două companii.
Activitatea grupului rus a fost deosebit de alarmantă, deoarece Forest Blizzard a folosit modelul lingvistic extins al OpenAI pentru a afla protocoalele de comunicare prin satelit ale armatei ucrainene, tehnologiile de imagistică radar și parametrii tehnici ai acestora.
În același timp, și alte organizații au avut planuri mari: Salmon Typhoon din China a vizat cu ajutorul acestui program guvernul și contractanții din domeniul apărării din SUA, iar grupuri nord-coreene și iraniene au folosit programul pentru a face mesaje de phishing.
Microsoft și OpenAI spun că nu au descoperit încă niciun atac major cu ajutorul LLM, dar au închis toate conturile și dispozitivele legate de aceste grupuri din motive de securitate. Cu toate acestea, incidentul arată nevoia unor soluții mai bune de securitate cibernetică, iar Microsoft dezvoltă un nou asistent de inteligență artificială pentru a-i ajuta pe profesioniștii din domeniul securității cibernetice să depisteze utilizările abuzive.
Urmărește-ne și pe Google News