Comisia Europeana saluta acordul politic privind Legea despre inteligenta artificiala
3/35725
calendar_month 11 Dec 2023, 18:05


Noile reguli vor avea o abordare bazata pe factori de risc

Ursula von der Leyen, presedintele Comisiei Europene, a declarat: „Inteligenta artificiala ne schimba deja viata de zi cu zi. Si acesta este doar inceputul. Folosita cu intelepciune si pe scara larga, AI promite beneficii uriase economiei si societatii noastre. Prin urmare, salut cu mare placere acordul politic de astazi al Parlamentului European si al Consiliului privind Legea despre inteligenta artificiala. Actul AI al UE este primul cadru juridic cuprinzator privind inteligenta artificiala la nivel mondial. Deci, acesta este un moment istoric. Actul AI transpune valorile europene intr-o noua era. Prin concentrarea reglementarilor pe riscuri identificabile, acordul de astazi va stimula inovatia responsabila in Europa. Garantand siguranta si drepturile fundamentale ale oamenilor si ale intreprinderilor, va sprijini dezvoltarea, implementarea si adoptarea unei IA de incredere in UE. Actul nostru AI va aduce o contributie substantiala la dezvoltarea regulilor si principiilor globale pentru IA centrata pe om.” 

Abordarea europeana a IA de incredere

Noile reguli vor fi aplicate direct, in acelasi mod, in toate statele membre, pe baza unei definitii a IA pentru viitor. Acestea urmeaza o abordare bazata pe risc:

Risc minim: marea majoritate a sistemelor AI se incadreaza in categoria riscului minim. Aplicatiile cu risc minim, cum ar fi sistemele de recomandare activate cu inteligenta artificiala sau filtrele de spam, vor beneficia de o trecere gratuita si de absenta obligatiilor, deoarece aceste sisteme prezinta un risc minim sau deloc pentru drepturile si siguranta cetatenilor. Pe baza voluntara, companiile se pot angaja totusi la coduri de conduita suplimentare pentru aceste sisteme AI.

Risc ridicat: sistemele AI identificate ca fiind cu risc ridicat vor trebui sa respecte cerinte stricte, inclusiv sisteme de atenuare a riscurilor, seturi de date de inalta calitate, inregistrarea activitatii, documentatie detaliata, informatii clare despre utilizator, supraveghere umana si un nivel inalt. de robustete, acuratete si securitate cibernetica. Sandbox-urile de reglementare vor facilita inovarea responsabila si dezvoltarea unor sisteme AI conforme.

Exemple de astfel de sisteme AI cu risc ridicat includ anumite infrastructuri critice, de exemplu, in domeniile apei, gazelor si electricitatii; dispozitive medicale; sisteme de stabilire a accesului la institutiile de invatamant sau de recrutare a persoanelor; sau anumite sisteme utilizate in domeniile aplicarii legii, controlului la frontiera, administrarii justitiei si proceselor democratice. Mai mult, sistemele biometrice de identificare, clasificare si recunoastere a emotiilor sunt, de asemenea, considerate cu risc ridicat. 

Risc inacceptabil: sistemele AI considerate o amenintare clara la adresa drepturilor fundamentale ale oamenilor vor fi interzise . Acestea includ sisteme sau aplicatii AI care manipuleaza comportamentul uman pentru a eluda liberul arbitru al utilizatorilor, cum ar fi jucariile care folosesc asistenta vocala care incurajeaza comportamentul periculos al minorilor sau sisteme care permit „scorajul social” de catre guverne sau companii si anumite aplicatii de politie predictiva. In plus, unele utilizari ale sistemelor biometrice vor fi interzise, ​​de exemplu sistemele de recunoastere a emotiilor utilizate la locul de munca si unele sisteme de clasificare a persoanelor sau identificarea biometrica la distanta in timp real in scopuri de aplicare a legii in spatii accesibile publicului (cu exceptii restranse).



Risc specific de transparenta: atunci cand folosesc sisteme AI, cum ar fi chatbots, utilizatorii ar trebui sa fie constienti ca interactioneaza cu o masina. Falsurile profunde si alte continuturi generate de inteligenta artificiala vor trebui etichetate ca atare, iar utilizatorii trebuie sa fie informati cand sunt utilizate sisteme de clasificare biometrica sau de recunoastere a emotiilor. In plus, furnizorii vor trebui sa proiecteze sisteme astfel incat continutul audio, video, text si imagini sintetice sa fie marcat intr-un format care poate fi citit de masina si detectabil ca fiind generat sau manipulat artificial.

Amenzi

Companiile care nu respecta regulile vor fi amendate . Amenzile ar varia de la 35 milioane EUR sau 7% din cifra de afaceri anuala globala (oricare este mai mare) pentru incalcarea aplicatiilor AI interzise, ​​15 milioane EUR sau 3% pentru incalcarea altor obligatii si 7,5 milioane EUR sau 1,5% pentru furnizarea de informatii incorecte. Sunt prevazute plafoane mai proportionale pentru amenzile administrative pentru IMM-uri si intreprinderile nou-infiintate in cazul incalcarii Legii AI.

AI de uz general

Legea AI introduce reguli dedicate pentru modelele de IA de uz general, care vor asigura transparenta de-a lungul lantului valoric. Pentru modelele foarte puternice care ar putea prezenta riscuri sistemice, vor exista obligatii suplimentare legate de gestionarea riscurilor si monitorizarea incidentelor grave, efectuarea evaluarii modelului si testarea contradictoriala. Aceste noi obligatii vor fi operationalizate prin coduri de practici elaborate de industrie, comunitatea stiintifica, societatea civila si alte parti interesate impreuna cu Comisie.

In ceea ce priveste guvernanta, autoritatile nationale competente de supraveghere a pietei vor supraveghea implementarea noilor reguli la nivel national, in timp ce crearea unui nou Oficiu European AI in cadrul Comisiei Europene va asigura coordonarea la nivel european. Noul Oficiu AI va supraveghea, de asemenea, implementarea si aplicarea noilor reguli privind modelele AI de uz general. Alaturi de autoritatile nationale de supraveghere a pietei, Oficiul AI va fi primul organism la nivel global care aplica reguli obligatorii privind IA si, prin urmare, se asteapta sa devina un punct de referinta international. Pentru modelele de uz general, un grup stiintific de experti independenti va juca un rol central prin emiterea de alerte privind riscurile sistemice si contributia la clasificarea si testarea modelelor.

Pasii urmatori

Acordul politic este acum supus aprobarii oficiale de catre Parlamentul European si Consiliu si va intra in vigoare la 20 de zile de la publicarea in Jurnalul Oficial. Actul AI va deveni aplicabil la doi ani de la intrarea sa in vigoare, cu exceptia unor prevederi specifice: interdictiile se vor aplica deja dupa 6 luni, in timp ce regulile privind IA cu scop general se vor aplica dupa 12 luni.

Pentru a acoperi perioada de tranzitie inainte ca regulamentul sa devina aplicabil general, Comisia va lansa un Pact AI . Acesta va convoca dezvoltatori de inteligenta artificiala din Europa si din intreaga lume care se angajeaza, in mod voluntar, sa implementeze obligatiile cheie ale Legii privind inteligenta artificiala inainte de termenele legale.

Pentru a promova reguli privind IA de incredere la nivel international, Uniunea Europeana va continua sa lucreze in foruri precum G7, OCDE, Consiliul Europei, G20 si ONU. Recent, am sustinut acordul liderilor G7 in cadrul procesului Hiroshima AI privind principiile directoare internationale si un Cod de conduita voluntar pentru sistemele avansate de IA.

De ani de zile, Comisia faciliteaza si imbunatateste cooperarea in materie de inteligenta artificiala in intreaga UE pentru a-i creste competitivitatea si a asigura increderea bazata pe valorile UE. 

In urma publicarii Strategiei  europene privind IA  in 2018 si dupa o consultare extinsa cu partile interesate, Grupul de experti la nivel inalt pentru inteligenta artificiala (HLEG) a elaborat  Orientari pentru IA de incredere in 2019 si o lista de evaluare a IA de incredere in 2020. In paralel, primul plan coordonat privind IA  a fost publicat in decembrie 2018 ca un angajament comun cu statele membre.

Cartea alba a Comisiei  privind IA , publicata in 2020, a stabilit o viziune clara pentru IA in Europa: un ecosistem de excelenta si incredere, care pregateste scena pentru acordul politic de astazi. Consultarea  publica  privind Cartea alba privind inteligenta artificiala a atras o participare pe scara larga din intreaga lume. Cartea alba a fost insotita de un „ Raport privind siguranta si implicatiile de raspundere ale inteligentei artificiale, internetului obiectelor si roboticii ”, concluzionand ca legislatia actuala privind siguranta produselor contine o serie de lacune care trebuiau abordate, in special in Directiva privind masinile.

Cercetarea independenta, bazata pe dovezi, realizata de Centrul Comun de Cercetare (JRC) a fost fundamentala in conturarea politicilor UE privind IA si pentru asigurarea punerii in aplicare efective a acestora. Prin cercetari si analize riguroase, JRC a sprijinit dezvoltarea Legii AI, informand terminologia AI, clasificarea riscurilor, cerintele tehnice si contribuind la dezvoltarea continua a standardelor armonizate. 

sursa: digital-strategy.ec.europa.eu/ro
sursa foto: pixabay.com



Sondaj

Cu cine veti vota la alegerile prezidentiale din 4 mai 2025?