Inteligența artificială reprezintă un subiect intens discutat în ultima perioadă și asta se datorează, în principal, efectelor pe care aceasta le are sau le-ar putea avea în viața cetățenilor statelor membre.
Totodată, acest subiect este unul controversat, iar opiniile privitoare la această chestiune sunt împărțite. Se vorbește despre efectele pozitive pe care inteligența artificială le poate avea în viața oamenilor și modalitatea în care le poate impacta viața în mod pozitiv. Pe de altă parte, există și multe îngrijorări privitoare la efectele negative ale inteligenței artificiale, respectiv faptul că aceasta poate să fie utilizată în mod abuziv, iar în acest fel să fie afectate drepturile și interesele fundamentale ale persoanelor.
Mai mult, justiția reprezintă și ea un domeniu în care inteligența artificială poate produce efecte relevante și există diverse discuții pe aceasta tematică, în legătură cu rolul pe care l-ar putea avea inteligența artificială în actul de justiție. Într-adevăr, justiția reprezintă un domeniu semnificativ în care inteligența artificială (AI) poate produce efecte notabile și complexe. Implementarea acesteia în sectorul juridic poate aduce beneficii considerabile precum eficientizarea proceselor judiciare, automatizarea sarcinilor administrative și facilitarea accesului la informații relevante prin analiza datelor, atât timp cât utilizarea ei nu vine în contradicție cu principii fundamentale în baza cărora funcționează actul de justiție.
Având în vedere, toate aceste chestiuni, la nivel european, au existat intense discuții pe această temă, care s-au concluzionat, prin emiterea Regulamentului (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024, care a intrat în vigoare la 1 august 2024 (Regulamentul privind inteligența artificială/AI Act).
Scopul Regulamentului privind Inteligența Artificială este de a stabili un cadru uniform pentru utilizarea și dezvoltarea AI în Uniunea Europeană, asigurând protecția drepturilor fundamentale, clasificarea riscurilor și transparența, stimulând inovația responsabilă și facilitând cooperarea internațională. De asemenea, prin acest Regulament european se urmărește ca factorul uman să fie protejat, asigurându-se un grad sporit de protecție drepturilor fundamentale consacrate în Carta drepturilor fundamentale a Uniunii europene.
Normele nou introduse cu privire la inteligența artificială vor să asigure cetățenii europeni că aceasta este sigură și de încredere și de asemenea că este utilizată în conformitate cu obligațiile în materie de drepturi fundamentale.
Totodată, la nivel european, se au în vedere beneficiile care pot decurge din utilizarea inteligenței artificiale și contribuțiile avantajoase de ordin economic și social pe care utilizarea acesteia le poate avea. Se consideră că inteligența artificială poate oferi avantaje concurențiale esențiale întreprinderilor și poate ajuta la obținerea de rezultate favorabile din punct de vedere social, al mediului, în domenii precum îngrijirile de sănătate, agricultura, siguranța alimentară, educația și formarea, justiția etc.
Regulamentul se aplică următoarelor categorii de persoane:
a) Furnizorii care introduc pe piață sau pun în funcțiune sisteme de IA sau introduc pe piață modele de AI de uz general în Uniune, indiferent dacă furnizorii respectivi sunt stabiliți sau se află în Uniune sau într-o tară terță;
b) Implementatorii de sisteme IA care își au sediul sau se află pe teritoriul Uniunii;
c) Furnizorii și implementatorii de sisteme AI care își au sediul sau se află într-o țară terță,în cazul în care rezultatele produse de sisteme de AI sunt utilizate în Uniune;
d) Importatorii și distribuitorii de sisteme AI;
e) Fabricanții de produse care introduc pe piață sau pun în funcțiune un sistem de AI împreună cu produsul lor și sub numele sau marca lor comercială;
f) Reprezentanții autorizați ai furnizorilor care nu sunt stabiliți în Uniune;
g) Persoanele afectate care se află în Uniune.
Este important de precizat, în acest context, faptul că acest regulament nu are aplicabilitate în domeniile care nu intră în sfera de aplicare a dreptului Uniunii și nu afectează competențele statelor membre în materie de securitate națională.
În opinia noastră, în acest cadru prezintă importanță capitală prevederile regăsite la articolul 5 din Regulamentul privind AI referitoare la practicile interzise, la nivel european, în domeniul inteligenței artificiale.
Astfel, în cuprinsul articolului 5 din Regulament sunt prevăzute anumite limitări în ceea ce privește utilizarea inteligenței artificiale. Regulamentul interzice utilizarea unor practici care pot afecta grav drepturile fundamentale ale omului. Printre acestea se numără utilizarea sistemelor AI care manipulează comportamentul uman prin tehnici subliminale sau înșelătoare, exploatarea persoanelor vulnerabile (în funcție de vârstă, dizabilități sau situație socio-economică), precum și clasificarea socială pe baza comportamentului sau caracteristicilor personale. De asemenea, sunt interzise sistemele AI de recunoaștere biometrică în timp real în spațiile publice, cu excepții limitate pentru situații precum combaterea terorismului sau căutarea persoanelor dispărute. Orice utilizare de acest tip trebuie autorizată și monitorizată strict de autorități competente, asigurând protecția drepturilor fundamentale și respectarea legislației naționale și europene.
Printre exemplele de practici AI interzise prin intermediul acestui Regulament european se regăsesc următoarele:
Exploatarea vulnerabilităților: Utilizarea AI pentru a manipula persoane vulnerabile, cum ar fi copiii, persoanele în vârstă sau cele cu dizabilități, profitând de vulnerabilitățile lor pentru a le distorsiona comportamentul;
Scorare socială: Sisteme AI care evaluează sau clasifică persoane în funcție de comportamentul lor social, ducând la tratamente discriminatorii sau nefavorabile în contexte nespecifice sau disproporționate în raport cu gravitatea comportamentului;
Predicția riscului infracțional: Sisteme AI care evaluează riscul ca o persoană să comită infracțiuni, bazându-se exclusiv pe trăsături de personalitate sau profiluri, fără dovezi obiective și verificabile legate de o activitate infracțională anterioară;
Recunoaștere biometrică în timp real: Utilizarea sistemelor de identificare biometrică (de exemplu, recunoașterea facială) în spații publice, în timp real, pentru supravegherea și monitorizarea persoanelor, cu excepția unor situații limitate și bine reglementate;
Clasificarea biometrică pe criterii sensibile: Sisteme AI care folosesc date biometrice pentru a deduce sau clasifica persoane în funcție de rasa, opiniile politice, apartenența la sindicate, credințele religioase, viața sexuală sau orientarea sexuală.
Excepții privind utilizarea AI în cooperarea internațională pentru aplicarea legii și cooperarea judiciară
Acest regulament nu se aplică autorităților publice dintr-o țară terță și nici organizațiilor internaționale care intră sub incidența acestui regulament, atunci când aceste autorități sau organizații folosesc sisteme de inteligență artificială în cadrul cooperării internaționale sau a acordurilor pentru aplicarea legii și cooperarea judiciară cu Uniunea sau cu unul sau mai multe state membre, cu condiția ca respectiva țară terță sau organizație internațională să ofere garanții adecvate în ceea ce privește protecția drepturilor și libertăților fundamentale ale persoanelor.
Concret, Regulamentul nu se aplică acestor autorități sau organizații internaționale atunci când folosesc sisteme de AI în cadrul cooperării internaționale sau a acordurilor pentru aplicarea legii și cooperarea judiciară cu Uniunea Europeană sau cu unul sau mai multe state membre. Totuși, pentru ca această excepție să fie valabilă, este necesar ca țara terță sau organizația internațională să ofere garanții adecvate în ceea ce privește protecția drepturilor și libertăților fundamentale ale indivizilor.
În esență, este permisă o anumită flexibilitate în colaborarea internațională, dar cu condiția ca drepturile fundamentale să fie protejate conform standardelor UE.
Legea privind Inteligența Artificială (AI Act) clasifică sistemele de inteligență artificială în patru categorii de risc, fiecare cu obligații specifice:
Risc minim: Include sisteme precum filtrele de spam pentru email și motoarele de recomandare. Această categorie nu este supusă reglementărilor detaliate ale Regulamentului;
Risc limitat: Sistemele AI, cum ar fi chatboții, trebuie să dezvăluie utilizatorilor că sunt mașini. Conținutul generat de AI, inclusiv deep fakes, trebuie etichetat clar, iar utilizatorii trebuie informați când sunt utilizate sisteme pentru clasificare biometrică sau recunoașterea emoțiilor;
Risc ridicat: Sistemele considerate a avea un risc ridicat, precum cele folosite în procesele de recrutare sau evaluarea creditelor, trebuie să respecte cerințe stricte. Acestea includ asigurarea unei calități superioare a datelor, păstrarea evidenței activităților, supravegherea umană și implementarea unor măsuri de securitate cibernetică. „Regulatory sandboxes” (platforme de testare reglementate) vor facilita dezvoltarea unor sisteme care să respecte aceste cerințe. În cazul sistemelor AI, care prezintă un grad ridicat de risc, la nivel unional, se impune supravegherea acestora, cu strictețe și în mod eficient, de către persoanele fizice, în perioada în care sunt utilizate. Prin urmare, observăm că măsurile de supraveghere trebuie să fie proporționale cu gradul de risc generat de sistemele AI.
În vederea exercitării unui control specific de către autoritățile competente, Regulamentul impune, prin intermediul articolului 21, realizarea unei cooperări adecvate, între furnizorii de AI și autoritățile competente. Așadar, la cererea unei autorități competente, furnizorii de sisteme AI cu grad de risc sunt obligați să furnizeze toate informațiile și documentația necesară, în vederea demonstrării conformității sistemului AI cu cerințele prevăzute de Regulament. De asemenea, la cererea motivată a autorității competente, furnizorii sunt obligațin să acorde acces la fișierele de jurnalizare generate automat ale sistemului AI, cu grad ridicat de risc.
Referitor la chestiunea sistemelor AI cu grad ridicat de risc se impune evaluarea acestora în ceea ce privește impactul pe care îl pot avea asupra drepturilor fundamentale.
Astfel, norma regăsită la articolul 27 din Regulament stabilește niște obligații specifice referitoarea la evaluarea necesar a fi realizată. Conform acestui articol, înainte de implementarea unui sistem de AI cu grad ridicat de risc, implementatorii trebuie să realizeze o evaluare care constă, în următoarele:
a) O descriere a perioadei de timp pentru care se intenționează utilizarea fiecărui sistem de AI cu grad ridicat de risc, precum și a frecvenței utilizării respective;
b) Categoriile de persoane fizice și grupurile susceptibile de a fi afectate de utilizarea sa în contextul specific;
c) Riscurile specifice de prejudicii susceptibile de a avea un impact asupra categoriilor de personae fizice sau grupurilor de personae identificate, în temeiul literei c), din prezentul alineat;
d) O descriere a punerii în aplicare a măsurilor de suoraveghere umană, în conformitate cu instrucțiunile de utilizare;
e) Măsurile care trebuie să fie luate în cazul în care riscurile respective se materializează, inclusiv mecanismele de guvernanță internă și mecanismele de tratare a plângerilor.”
Regulamentul impune obligații în sarcina statelor membre în ceea ce privește controlul necesar a fi efectuat, respectiv se impune ca fiecare stat membru să instituie cel puțin o autoritate de notificare responsabilă cu instituirea și efectuarea procedurilor necesare pentru evaluarea, desemnarea și notificarea organismelor de evaluare a conformității și pentru monitorizarea acestora.
Risc inacceptabil: Aplicațiile AI care prezintă amenințări clare la adresa drepturilor fundamentale, cum ar fi sistemele manipulative sau cele care permit evaluarea socială (social scoring) sunt interzise. Anumite aplicații biometrice, inclusiv recunoașterea emoțiilor la locul de muncă și unele forme de identificare biometrică de către forțele de ordine sunt de asemenea interzise.
Intrarea în vigoare și aplicarea Regulamentului privind Inteligența Artificială
Conform Articolului 113, Regulamentul a intrat în vigoare la 1 august 2024, după ce inițial a fost publicat în Jurnalul Oficial al Uniunii Europene, pe 12 iulie 2024.
Prin urmare, noua lege devine aplicabilă la 2 august 2026, adică la douăzeci și patru de luni de la data intrării în vigoare.
Totuși, există trei perioade speciale de tranziție pentru anumite categorii de articole din actul privind AI:
Regulamentul se va aplica integral începând cu data de 2 augut 2026.
Capitolele I (Dispoziții introductive) și II (Interdicții) vor deveni aplicabile începând cu data de 2 februarie 2025.
Capitolele III Secțiunea 4 (Organisme notificate), V (Modele de inteligență artificială de uz general), VII (Guvernanță), XII (Sancțiuni) și Articolul 78 (Confidențialitate) vor intra în vigoare, cu excepția Articolului 101, de la data de 2 august 2025.
Articolul 6 alin. (1) și obligațiile corespunzătoare din regulament vor deveni aplicabile, începând cu data de 2 august 2027.
În consecință, în opinia noastră, utilizarea inteligenței artificiale poate să aducă beneficii în viața oamenilor, atât timp cât ea este utilizată echilibrat, cu respectarea unor limite rezonabile și a legislației aplicabile, la nivel național și unional.
Acest articol a fost pregătit, pentru Blogul Costaș, Negru & Asociații, de av. Paul Buzea și av. Oana Budi, ambii din Baroul Arad.
Costaș, Negru & Asociații este o societate civilă de avocați cu birouri în Cluj-Napoca, București și Arad, care oferă asistență, reprezentare juridică și consultanță în mai multe arii de practică prin intermediul unei echipe compuse din 20 avocați și consultanți. Detaliile privind serviciile juridice și componența echipei pot fi găsite pe pagina web https://www.costas-negru.ro. Toate drepturile pentru materialele publicate pe pagina web a societății și prin intermediul rețelelor sociale aparțin Costaș, Negru & Asociații, reproducerea acestora fiind permisă doar în scop de informare și cu citarea corectă și completă a sursei.