ChatGPT si securitatea cibernetica ¬ scrisori de phishing convingatoare si malware personalizat
8/8401
calendar_month 27 Ian 2023, 14:13
Scrisoare de phishing generata de ChatGPT

Kaspersky exploreaza modul in care aparitia ChatGPT si utilizarea sa de catre publicul larg ar putea schimba regulile stabilite ale lumii securitatii cibernetice. Acest lucru vine la cateva luni dupa ce OpenAI a lansat ChatGPT-3 – unul dintre cele mai puternice modele AI de pana acum. ChatGPT-3 poate explica concepte stiintifice complexe mai bine decat multi profesori, poate scrie muzica si poate genera aproape orice text pe baza solicitarii utilizatorului.
ChatGPT-3 este, in primul rand, un model de limbaj AI care creeaza texte convingatoare, greu de distins de cele scrise de oameni. Prin urmare, infractorii cibernetici incearca deja sa aplice aceasta tehnologie la atacurile de tip spear-phishing. Anterior, principalul obstacol care i-a oprit din campaniile de spear-phishing in masa a fost faptul ca este destul de costisitor sa scrie fiecare e-mail vizat. ChatGPT este setat sa modifice drastic echilibrul de putere, deoarece ar putea permite atacatorilor sa genereze e-mailuri de phishing persuasive si personalizate la scara industriala. Poate chiar simula corespondenta, creand e-mailuri false, dar foarte convingatoare si personale, care arata ca si cum ar fi transmise de la un angajat la altul. Din pacate, acest lucru inseamna ca numarul atacurilor de phishing reusite poate creste.
Multi utilizatori au descoperit deja ca ChatGPT este capabil sa genereze cod, dar, din pacate, este vorba inclusiv de coduri rau intentionate. Crearea unui simplu infostealer va fi posibila fara necesitatea unor abilitati de programare. Cu toate acestea, utilizatorii straight-arrow nu au de ce sa se teama. Daca se foloseste efectiv codul scris de un bot, solutiile de securitate il vor detecta si neutraliza la fel de repede ca toate programele malware din trecut, create de oameni. In timp ce unii analisti isi exprima ingrijorarea ca ChatGPT poate chiar sa creeze malware unic pentru fiecare victima, aceste mostre ar prezenta totusi un comportament rau intentionat care, cel mai probabil, va fi observat de o solutie de securitate. Mai mult, este posibil ca malware-ul scris de bot sa contina erori subtile si probleme legate de logica informatiilor, ceea ce inseamna ca automatizarea completa a codificarii malware-ului este posibila in continuare.
Desi instrumentul poate fi util atacatorilor, specialistii si solutiile de securitate pot beneficia, de asemenea, de pe urma acestui lucru. De exemplu, ChatGPT este deja capabil sa explice rapid ce face o anumita parte de cod. Este binevenit in SOC, unde analistii suprasolicitati in mod constant trebuie sa aloce un timp minim fiecarui incident, asa ca orice instrument de accelerare a procesului este util. In viitor, utilizatorii vor vedea probabil numeroase produse specializate: un model de inginerie inversa pentru a intelege mai bine codul, un model de rezolvare a CTF, un model de cercetare a vulnerabilitatilor si multe altele.
Aflati mai multe despre cum ChatGPT va schimba securitatea cibernetica, pe https://www.kaspersky.com/blog/chatgpt-cybersecurity/46959/