Fără utilitate socială, AI-ul devine o povară

10 July 2025

Lumea nu așteaptă ca noi să avem timp. Tehnologia avansează, deciziile se iau, energiile se consumă, viitorul se conturează — adesea fără să știm măcar că suntem implicate. Când Satya Nadella, CEO-ul Microsoft, vorbește despre „permisiunea socială de a consuma energie” în legătură cu inteligența artificială, nu e un detaliu tehnic. E o problemă de alegere, de etică și de supraviețuire comună.

„Dacă există o lecție pe care ne-a predat-o istoria, e aceasta: dacă vrei să consumi energie, trebuie să ai permisiunea socială de a face asta. Asta încalcă deja regula jocului pentru inteligența artificială: rezultatul produs de AI trebuie să fie cu adevărat util din punct de vedere social.”

Inteligența artificială nu are un „drept divin” de a consuma energie doar pentru a genera texte, poze, coduri sau conversații drăguțe. Nu e suficient ca aceste modele să fie eficiente sau impresionante. Trebuie să fie utile în mod concret — să salveze vieți, timp, bani, să aducă ceva în plus societății, nu doar companiilor.

Ce riscăm dacă ignorăm aceste semnale

Dacă AI-ul consumă din ce în ce mai mult, dar produce în principal șomaj, conținut superficial și dependență digitală — nu progres real — atunci nu vom mai avea nicio „permisiune socială” să continuăm pe această cale. Revoltele împotriva Big Tech ar putea începe nu de la întrebări filosofice, ci de la facturi și concedieri.

Modelele care produc doar texte, video, deepfake-uri sau imagini „impresionante”, dar fără nicio finalitate practică, riscă să intre rapid în colimatorul opiniei publice. E un fel de greenwashing digital: se cere enorm în termeni energetici, dar nu oferă în schimb nimic concret societății.

Sustenabilitatea nu e doar o chestiune ecologică. E o întrebare etică, economică și umană: cui servește AI-ul și cu ce cost?

Ce legătură are asta cu noi, femeile?

Avem tendința să credem că dacă nu programăm, nu ne afectează. Dar AI-ul deja ia decizii care ne privesc: cine e chemat la interviu și cine nu, ce tratament ni se recomandă, cum ni se calculează creditul, ce anume citim în fluxul de știri, ce „soluții” ne sunt oferite la problemele noastre. Iar dacă modelele din spatele acestor procese sunt construite de oameni care nu știu cum arată o zi din viața unei femei reale, rezultatele pot fi nu doar irelevante, ci chiar dăunătoare.

Nadella cere ceva ce pare banal, dar e monumental: să evaluăm cu luciditate cât consumă AI-ul și ce oferă în schimb. Nu tehnologia în sine e răspunzătoare, ci cei care o folosesc și o finanțează. Să ne uităm ce iese din această „magie” digitală. E utilă pentru societate sau doar pentru bursă?

Cum ne ajută acest discurs să luăm decizii mai bune

  • Să căutăm aplicațiile de AI care chiar ne sprijină — în sănătate mintală, educație, organizare personală, nu doar cele care ne „înghit” timpul.
  • Să cerem explicații și transparență — de la platforme, de la angajatori, de la instituții. Cine a decis în locul nostru și pe ce criterii? Dar ce înseamnă, de fapt, această „transparență”? În prezent, nu există obligații clare pentru ca platformele sau angajatorii să ne explice cum funcționează algoritmii care ne influențează viața. Deciziile automate privind interviurile, creditele sau conținutul vizibil online sunt rareori explicate. Uniunea Europeană a introdus prin AI Act (2024) o serie de cerințe pentru sistemele considerate cu „risc ridicat” — în sănătate, educație, justiție — dar punerea lor în practică este lentă și fragmentară. Cercetători precum Timnit Gebru sau Kate Crawford, dar și organizații civice, cer audituri externe, dreptul la explicație și control asupra modului în care AI-ul este antrenat. A cere transparență nu înseamnă că o vom primi imediat. Dar înseamnă că începem să înțelegem unde să punem presiune — și de ce.
  • Să ne implicăm în conversația publică despre AI — nu e o lume pentru ingineri, ci o lume în care vom trăi cu toatele.

Concluzie

Nu e nevoie să devenim toate experte în machine learning ca să știm când ceva ne păcălește. Nici nu trebuie să ne prefacem că înțelegem fiecare detaliu tehnic, câtă vreme intuim că ni se cere să plătim — în bani, atenție sau autonomie — pentru niște „inovații” care nu ne cer părerea. Etica energetică nu e o temă de conferință. E o temă pentru acasă – pentru fiecare dintre noi.

Poate că nu putem schimba direcția trenului, dar e cazul să întrebăm dacă e cazul să urcăm chiar în vagonul de marfă, cu eticheta „consumatoare de date”. Să nu confundăm noutatea cu sensul, nici eficiența cu binele, nici AI-ul cu destinul. 🙂 TREBUIE SĂ AVEM ȘI NOI UN CUVÂNT DE SPUS. Suntem jumătate, nu uitați.



Citiţi şi

Cum ne protejăm de balastul AI

Catchy Newsroom – mijlocul săptămânii (8 octombrie 2025)

AI Act: AI-ul e binevenit, dar nu oricum – ce e permis, ce e supravegheat strict și ce devine interzis

Acest articol este protejat de legea drepturilor de autor. Orice preluare a conținutului se poate face doar în limita a 500 de semne, cu citarea sursei și cu link către pagina acestui articol.


Nu rata urmatoarele articole Catchy!

Inscrie-te la newsletterul gratuit. Avem surprize speciale in fiecare zi pentru cititorii nostri.
  • Facebook
  • Twitter
  • Google Bookmarks
  • LinkedIn
  • RSS

Your tuppence

My two pennies

* required
* required (confidential)

catchy.ro