Securitatea cibernetica in era AI: Cum a evoluat peisajul amenintarilor in 2023
3/35814
calendar_month 19 Dec 2023, 13:25


Expertii Kaspersky dezvaluie influenta profunda a inteligentei artificiale asupra peisajului securitatii cibernetice in 2023, in ultimul lor raport. Adoptand o abordare cu mai multe fatete, analiza exploreaza implicatiile inteligentei artificiale, concentrandu-se pe utilizarea acesteia de catre aparatori si autoritatile de reglementare si evaluand separat modul in care aceasta poate fi exploatata de catre infractorii cibernetici. Aceasta analiza cuprinzatoare – parte a Kaspersky Security Bulletin (KSB) – este o compilatie anuala de previziuni si rapoarte aprofundate, care puncteaza schimbarile cheie in domeniul dinamic al securitatii cibernetice.

Pe fondul ritmului rapid al progresului tehnologic si al schimbarilor din societate, termenul „AI” s-a pozitionat ferm in miezul conversatiilor globale. Odata cu raspandirea din ce in ce mai mare a modelelor lingvistice mari (LLM), cresterea preocuparilor legate de securitate si confidentialitate leaga in mod direct inteligenta artificiala cu lumea securitatii cibernetice. Cercetatorii Kaspersky ilustreaza modul in care instrumentele AI i-au ajutat pe infractorii cibernetici in activitatea lor in 2023, prezentand in acelasi timp potentialele aplicatii defensive ale acestei tehnologii. Expertii companiei prezinta, de asemenea, peisajul in evolutie al amenintarilor legate de inteligenta artificiala in viitor, care ar putea include:

Vulnerabilitati mai complexe

Pe masura ce LLM-urile controlate pe baza de instructiuni sunt integrate in mai multe produse destinate consumatorilor, noi vulnerabilitati complexe vor aparea la intersectia dintre AI generativa probabilistica si tehnologiile deterministe traditionale, extinzand terenul de atac pe care profesionistii in securitate cibernetica il au de securizat. Acest lucru va cere dezvoltatorilor sa studieze noi masuri de securitate, cum ar fi aprobari din partea utilizatorilor pentru actiunile initiate de agentii LLM.

Un asistent AI complex pentru specialistii in securitate cibernetica

Cercetatorii folosesc inteligenta artificiala generativa pentru instrumente inovatoare de securitate cibernetica, ceea ce poate duce la crearea unui asistent virtual prin utilizarea de LLM sau machine learning (ML). Acest instrument ar putea automatiza sarcinile oferind indrumari bazate pe comenzile executate intr-un mediu de testare.

Retelele neuronale vor fi din ce in ce mai folosite pentru a genera imagini pentru escrocherii

In anul urmator, escrocii isi pot amplifica tactica folosind retele neuronale, utilizand instrumente AI pentru a crea continut fraudulos mai convingator. Cu capacitatea de a genera fara efort imagini si videoclipuri convingatoare, actorii rau intentionati prezinta un risc crescut de escaladare a amenintarilor cibernetice legate de frauda si escrocherii.

Inteligenta artificiala nu va deveni un motor pentru o schimbare revolutionara in peisajul amenintarilor in 2024

In ciuda tendintelor de mai sus, expertii Kaspersky raman sceptici cu privire la eventualele schimbari semnificative ale peisajului amenintarilor care ar putea fi generate de inteligenta artificiala in viitorul apropiat. In timp ce infractorii cibernetici adopta AI generativa, acelasi lucru este valabil si in cazul aparatorilor cibernetici, care vor folosi aceleasi instrumente sau chiar unele mai avansate pentru a testa securitatea software-ului si a retelelor, ceea ce face putin probabil ca peisajul atacurilor sa se modifice.



Mai multe initiative de reglementare legate de AI, cu contributia sectorului privat

Pe masura ce tehnologia se dezvolta, aceasta a devenit un subiect pentru cei care elaboreaza a politici si reglementari. Numarul de initiative de reglementare legate de inteligenta artificiala va creste. Actorii non-state, cum ar fi companiile tehnologice, avand in vedere expertiza lor in dezvoltarea si utilizarea inteligentei artificiale, pot oferi informatii importante pentru discutiile privind reglementarea AI atat pe platformele globale, cat si pe cele nationale.

Watermark pentru continutul generat de AI

Vor fi necesare mai multe reglementari, precum si politici ale furnizorilor de servicii pentru a semnala sau identifica continutul sintetic, in acelasi timp continuand investitiile in tehnologii de detectare. Dezvoltatorii si cercetatorii, la randul lor, vor adera la metodele de semnalare cu watermark a mediilor sintetice pentru a le identifica si a le marca provenienta mai usor.

Pentru a afla mai multe despre AI in peisajul securitatii cibernetice, vizitati Securelist.com.
Concluziile de mai sus fac parte din Kaspersky Security Bulletin (KSB) – o serie anuala de previziuni si rapoarte analitice privind schimbarile cheie din lumea securitatii cibernetice.