AI Act: AI-ul e binevenit, dar nu oricum – ce e permis, ce e supravegheat strict și ce devine interzis

5 October 2025

Inteligența artificială pare un subiect tehnic, pentru programatori și politicieni. Dar adevărul e că noi, oamenii de rând, cei care scrolăm zilnic pe social media, suntem primii afectați de felul în care e folosită. Inteligența artificială nu mai e un experiment de laborator. Scrie texte, pictează tablouri, îți recomandă filme și chiar decide dacă primești un credit. Dar cine veghează ca aceste „mașini inteligente” să joace corect? Răspunsul e simplu: Europa.

Uniunea Europeană a adoptat AI Act, prima lege din lume care reglementează inteligența artificială. O inițiativă ambițioasă, care spune, pe scurt: AI-ul e binevenit, dar nu oricum.

Foto generată cu AI

AI pe categorii de risc

Ca să nu blocheze inovația, dar nici să lase haosul să domnească, legea a împărțit aplicațiile AI în patru niveluri de risc, o ierarhie care stabilește ce e permis, ce e supravegheat strict și ce devine interzis.

  • Risc minim – Aplicațiile care ne fac viața mai comodă, fără să ne afecteze drepturile sau siguranța. Exemple: filtrele anti-spam, algoritmii de recomandare de pe Netflix sau Spotify, jocurile video care personalizează experiența, aplicațiile creative de design sau scriere asistată. Fără obligații suplimentare – sunt încurajate pentru inovare.
  • Risc limitat – Aplicațiile care pot influența percepția, dar nu iau decizii cu impact real asupra vieții tale. Exemple: chatboți (servicii clienți, asistenți virtuali), generatoare de text, imagine sau voce. Obligația esențială: transparența. Utilizatoarea trebuie informată clar când interacționează cu o mașină sau când un conținut este creat de AI.
  • Risc ridicat – Aici intră aplicațiile AI care pot afecta direct drepturile fundamentale sau siguranța fizică. Domenii vizate: infrastructuri critice (energie, transport, utilități); educație (evaluări, admitere, clasificare); recrutare și resurse umane (filtrarea CV-urilor, interviuri automate, promovări); servicii financiare (bănci, scoring de credit, asigurări); administrație publică (alocare de beneficii, decizii automate); poliție și justiție (profilare, recunoaștere facială, evaluarea riscului); sănătate (diagnostic, triaj, recomandări medicale). Cerințe: audit tehnic, documentație riguroasă, date curate și supraveghere umană.
  • Risc inacceptabil – Aplicațiile care contravin valorilor și libertăților europene. Interzise complet: manipulare psihologică sau comportamentală; „social scoring” (notarea persoanelor după comportament); recunoaștere facială biometrică în timp real în spații publice, cu excepții stricte pentru poliție; identificare emoțională la locul de muncă sau în școli. Aceste sisteme sunt prohibite din februarie 2025.

Ce înseamnă asta pentru noi

Pentru femeile care muncesc, trăiesc și visează în Europa, această lege aduce o garanție simplă și esențială: tehnologia nu trebuie să fie mai presus de demnitatea umană.

Nu vei fi respinsă la un interviu doar pentru că un algoritm a „decis” că nu ești potrivită. Nu vei fi urmărită obsesiv prin camere „inteligente” fără să știi. Și vei avea dreptul să știi când un text, o voce sau o imagine nu aparțin unui om, ci unei mașini.

Pe scurt, AI Act vrea să facă din inteligența artificială un instrument care ne sprijină, nu care ne înlocuiește sau ne controlează. Cu cât mai repede, cu atât mai bine.

Iar aici apare miza discuției despre „stop the clock” (explicată mai jos): de asta depinde cât de repede vor intra aceste protecții în viața noastră. Dacă aplicarea se amână, rămânem mai mult timp expuse la riscuri: fake news generate de AI fără etichetă, algoritmi netestați care decid credite sau tratamente, sisteme medicale în care eroarea devine statistică.

Pentru publicul larg, toată povestea se reduce la o întrebare limpede: cât de repede vom fi protejate, în mod real, de lege, împotriva abuzurilor AI?

Citiți și Ghid de conversație cu un robot AI

Dacă vreți să știți mai multe despre laboratorul legislativ al AI Act, aveți mai jos un rezumat despre

Cum s-a scris, pas cu pas, cea mai ambițioasă lege digitală a Europei

Totul a început pe 21 aprilie 2021, când Comisia Europeană, prin comisarul Thierry Breton, a propus prima lege privind inteligența artificială. Au urmat aproape trei ani de negocieri între Parlamentul European, Consiliul Uniunii Europeneși guvernele statelor membre.

Pe 9 decembrie 2023, cele trei instituții au ajuns la un acord politic provizoriu, iar pe 13 martie 2024, Parlamentul European a adoptat textul final cu 523 de voturi pentru, 46 contra și 49 abțineri. Co-raportori: Brando Benifei (Italia) și Dragoș Tudorache (România).

Consiliul UE a validat acordul pe 21 mai 2024, regulamentul (UE) 2024/1689 a fost semnat pe 13 iunie și publicat în Jurnalul Oficial al Uniunii Europene pe 12 iulie 2024.

De la 1 august 2024, legea este în vigoare, cu aplicare etapizată până în 2027.

Implementarea este coordonată de European AI Office, creat la Bruxelles în ianuarie 2024, care veghează ca aceleași reguli să fie respectate peste tot în Uniune.

Ce prevederi se aplică deja și ce urmează

  • 1 august 2024 — AI Act a intrat în vigoare (intrare formală în drept), cu aplicare etapizată ulterior. 

  • 2 februarie 2025 — Încep să se aplice interdicțiile pentru practicile AI cu „risc inacceptabil” și cerințele de alfabetizare AI. 

  • 2 mai 2025 — Țintă pentru publicarea Codurilor de practică (ghiduri pentru conformare). 

  • 2 august 2025 — Încep regulile pentru modelele de uz general (GPAI), capitolul de guvernanță, regulile de confidențialitate și regimul sancțiunilor; statele membre își desemnează autoritățile naționale. 

  • 2 august 2026 — Se aplică majoritatea celorlalte obligații (inclusiv pentru multe sisteme cu risc ridicat), cu excepția art. 6(1). 

  • 2 august 2027 — Devine aplicabil art. 6(1) (parte cheie din mecanismul pentru „risc ridicat”); GPAI deja pe piață înainte de 2 aug. 2025 trebuie să fie pe deplin conforme până la această dată. 

  • 31 decembrie 2030 — Termen pentru anumite sisteme IT de scară mare din anexa X să fie aduse în conformitate. 

Notă utilă: Comisia Europeană a pornit consultarea publică privind ghidurile și șablonul de raportare a incidentelor serioase la 26 septembrie 2025 (până la 7 noiembrie 2025). 

Discuții actuale și propuneri de ajustare

  1. Solicitări de „pauză” / amânare la aplicare

    • Mai mulți actori tehnologici cer o «stop the clock» — adică să se suspende aplicarea unor prevederi pentru a le da timp să se adapteze. 

    • Există rapoarte despre faptul că Comisia Europeană analizează posibilitatea de a amâna aplicarea unor dispoziții (în special cele ale codului general-purpose) deoarece industria afirmă că nu are claritatea necesară încă. 

    • Dar Comisia a respins deja unele apeluri de suspendare, insistând că termenii stabiliți trebuie respectați pentru credibilitatea reglementării. 

  2. Ghiduri, clarificări și coduri de practică

    • În iulie 2025, Comisia a publicat versiuni draft ale ghidurilor pentru modelele generale-purpose (GPAI), care aduc interpretări legate de ce modele intră sub regulamente și cum să se conformeze. 

    • De asemenea, se lucrează la Codul de Practică (voluntar) pentru GPAI, ca să ajute actorii să înțeleagă cum să aplice cerințele. 

  3. Implementarea la nivel național și autoritățile de supraveghere

    • Statele membre trebuie să desemneze autoritățile competente și să raporteze capacitățile lor până la 2 august 2025 — e un proces care nu e finalizat peste tot. 

    • Există critici legate de ritmul lent în adoptarea standardelor armonizate (CEN / CENELEC) necesare pentru conformitate practică. 

  4. Posibile relaxări sau revizuiri

    • Se discută că unele cerințe ar putea fi transformate în opționale (nu obligatorii), pentru a reduce povara asupra organizațiilor. 

    • Există presiuni de la companii mari (ex: Siemens, SAP) să revizuiască regulile, pentru a le face mai „prietenoase” pentru inovare. 

    • Grupuri de lobby au cerut o amânare a aplicării unor părți din AI Act din cauza nesiguranțelor în industrie. 

  5. Consultări și ghiduri privind incidente grave

    • Pe 26 septembrie 2025, Comisia a deschis consultări publice privind ghiduri și șabloane de raportare pentru „incidente serioase” legate de AI. 

Cum vedeți, există discuții serioase, confruntări între industria tech și autorități, presiuni pentru amânări sau clarificări, și evoluții legate de cum se va aplica efectiv legea.



Citiţi şi

Cum lucrează binele prin domnul Trump

ChatGPT Health: când „prima întrebare” nu mai ajunge la medic

O veste bună care cere un plan: trăim mai mult

Acest articol este protejat de legea drepturilor de autor. Orice preluare a conținutului se poate face doar în limita a 500 de semne, cu citarea sursei și cu link către pagina acestui articol.


Nu rata urmatoarele articole Catchy!

Inscrie-te la newsletterul gratuit. Avem surprize speciale in fiecare zi pentru cititorii nostri.
  • Facebook
  • Twitter
  • Google Bookmarks
  • LinkedIn
  • RSS

Your tuppence

My two pennies

* required
* required (confidential)

catchy.ro