De ce Elon Musk si alte personalitati considera ca utilizarea AI reprezinta o amenintare?

calendar_month 31 Mar 2023, 15:32
Cristiana Deca MP Decalex
Dupa entuziasmul care a cuprins intreaga lume, sau aproape intreaga lume dupa cum se observa in ultima vreme, odata cu anunturile providerilor de solutii bazate pe inteligenta artificiala (engl. Artificial Inteligence – AI), traversam momentul in care o serie de voci influente la nivel global par ca trag un semnal de alarma cu privire la expansiunea exponentiala a acestor solutii. Recent, a fost dat publicitatii un moratoriu (https://futureoflife.org/open-letter/pause-giant-ai-experiments), semnat de personalitati ale spatiului public, in frunte cu Elon Musk, fondatorul Tesla, prin care acestea cred ca e oportuna suspendarea utilizarii AI pe scara larga, datorita lipsei de reglementare si a pericolelor pe care le reprezinta utilizarea libera a Inteligentei Artificiale (IA).
Intrebarea este cum s-a ajuns aici si care sunt argumentele acestor oameni influenti la nivel global, profund implicati in schimbarile economice din ultimii ani, cunoscuti ca avangardisti si inovatori ai vremurilor prezente?
Aparitia ChatGPT a schimbat lucrurile
Chat GPT este un machine learning model, adica functioneaza aidoma creierului uman, folosind „neuroni” interconectati, care pot invata sa identifice modele in date si sa faca predictii despre ceea ce urmeaza sa se intample in continuare.
Aparitia solutiei de la OpenAI, denumita ChatGPT este considerata o adevarata revolutie, intrucat este pentru prima data cand un chatbot ce are integrat inteligenta artificiala este antrenat (si incarcat) pe cantitati uriase de date de pe Internet, astfel incat sa formuleze raspunsuri care pot parea ca sunt formulate de oameni.
ChatGPT a castigat un milion de utilizatori doar in prima saptamana de la lansare, iar website-ul ChatGPT primeste in prezent aproximativ un miliard de vizitatori lunar, cu o valoare estimata de 100 milioane de utilizatori activi, potrivit comunicatelor OpenAI.
Statusul reglementarilor AI
Odata cu aparitia ChatGPT din ce in ce mai multe persoane au acces si utilizeaza inteligenta artificiala atat pentru uz personal cat si in scop de business, dar domeniul a ramas inca nereglementat. In acest moment nu exista nici un sistem de guvernanta a inteligentei artificiale, ceea ce inseamna ca nu exista nicio pedeapsa in cazul in care un astfel de software este creat sau utilizat cu rea-intentie.
Desi exista destul de multe initiative de reglementare a zonei AI, nu exista niciuna care sa se afle intr-un stadiu suficient de avansat. Uniunea Europeana, de exemplu, lucreaza la Regulamentul privind Inteligenta Artificiala (AI Act), fiind primul act normativ ce are ca scop principal reglementarea AI-ul, pornind de la riscurile pe care acesta le prezinta pentru consumatori. Pe langa acest demers, inca in lucru, exista mai multe initiative care incearca sa stabileasca cadrul etic de dezvoltare a solutiilor AI, incercand sa traseze un cadru de principii morale ce trebuie transpuse in scrierea de cod a AI-ului.
Motivul principal pentru care Elon Musk si alti actori importanti au semnat moratoriul de suspendare a utilizarii AI-ului pentru o perioada de sase luni, este pentru ca nu exista inca un cadru legislativ aplicabil si nici o matrice dupa care sa stabilim care solutie AI lucreaza in detrimentul oamenilor si care nu.
Cum pot fi afectati oamenii de utilizarea AI-ului?
In timp ce AI-ul are un potential imens neexploatat, utilizarea nereglementata poate duce la a incalcarea drepturilor omului, mai ales in ceea ce priveste discriminarea anumitor segmente ale societatii ca urmare a „algoritmilor partinitori - biased”.
Desi AI-ul a devenit un trend abia acum, prin intermediul Chat GPT, poate si pentru ca ChatGPt este atat de simplu de utilizat incat oricine are o adresa de e-mail isi face un cont in platforma si poate transmite mesaje catre chatbot, nu trebuie sa uitam ca algoritmii de inteligenta artificiala sunt utilizati deja in foarte multe arii din viata noastra. In lipsa acestor reglementari clare de acces si utilizare este foarte probabil ca va utilizarea solutiilor AI, necontrolat si nereglementat, va afecta in primul rand grupurile vulnerabile, care sunt deja profilate si hartuite in spatiul non-digital, cum este cazul minoritatilor.
Riscurile la adresa drepturilor fundamentale ale omului apar in special cand AI-ul sta la baza unor decizii automate ce au un impact masiv in viata de zi cu zi, cum ar fi: prelucrarea automata a datelor despre sanatatea unei persoane, prelucrarea datelor despre locul de munca sau despre creditare. De exemplu, in 2015, Algoritmul de angajare al Amazon s-a dovedit a fi partinitor cu femeile „pentru ca algoritmul se baza pe numar de cv-uri depuse in ultimii zece ani si la vremea respectiva cei mai multi dintre solicitanti au fost barbati, astfel ca AI-ul a fost instruit pentru a favoriza barbati inaintea femeilor. (Real-life Examples of Discriminating Artificial Intelligence | by Terence Shin | Towards Data Science ). Si acesta este doar un exemplu.
La ce riscuri se pot expune businessurile prin utilizarea AI-ului?
Cand vorbim despre riscurile la care se expun companiile prin utilizarea AI am identificat cel putin patru aspecte de care trebuie sa tinem cont.
Un obstacol important in calea adoptarii AI este lipsa de competente si disponibilitatea personalului tehnic cu experienta si instruirea necesare pentru a implementa in mod eficient o astfel de solutie tehnica.
In al doilea rand, pornind de la datele la care compania ofera acces inteligentei artificiale pentru a invata, aici se ridica problema legata de acuratetea datelor pe care va fi invatat algoritmul.
Urmatoarea problema importanta este modul in care solutia tehnologica utilizeaza acele date, din punct de vedere al regulilor de confidentialitate si transparenta. Intrucat conform regulilor de prelucrare a datelor din GDPR, companiile trebuie sa asigure confidentialitatea datelor personale ale clientilor (utilizatorilor) care intra in contact cu AI-ul.
Nu in ultimul rand, vorbim despre transparenta in ceea ce priveste modul in care a fost codat algoritmul, intrucat fara respectarea regulilor minimale de etica in dezvoltarea tehnologica, AI-ul poate genera raspunsuri ori solutii nepotrivite sau partinitoare, care pot genera probleme de incredere pentru brandul ce il utilizeaza.
Intrebarea care se naste este insa daca sunt suficiente sase luni pentru ca un set de reglementari de baza sa fie create si adoptate la nivel global, astfel incat sa fie evitate, pe termen lung, aceste riscuri.
Cristiana Deca, fondator&CEO Decalex
Noutati




