Harari la Davos 2026: AI nu mai e o unealtă

23 January 2026

În Davos 2026, AI a fost peste tot: în discursuri despre productivitate, în promisiuni de investiții, în anxietăți legate de piața muncii. Dar, dincolo de optimismul „noii revoluții industriale”, s-a simțit și un lucru mai rar la Davos: o neliniște lucidă, legată nu de cât de repede avansează tehnologia, ci de cât de nepregătiți suntem pentru felul în care ea intră în lume.

Un exemplu simplu: Kristalina Georgieva, șefa FMAI, a numit impactul AI asupra muncii un „tsunami”, cu efecte mai dure pentru începutul de carieră și cu riscul de a adânci inegalitățile dacă politicile publice rămân în urmă. Iar faptul că Donald Trump a dominat titlurile – „a furat spectacolul”, spune mai mult despre logica media decât despre miza reală a forumului.

În acest cadru, intervenția lui Yuval Noah Harari a fost importantă pentru că a încercat să fixeze discuția în jurul unei distincții care chiar contează: nu „AI e bună sau rea?”, ci ce fel de tehnologie este și ce presupune asta pentru control, responsabilitate și instituții.

Felul în care numim inteligența artificială ne poate păcăli în privința riscurilor reale. Dacă o tratăm reflex ca pe un „instrument”, presupunem că decizia rămâne mereu la om și că tehnologia doar execută. Harari spune că AI începe să funcționeze ca agent, adică un sistem căruia îi delegi obiective și care poate decide pașii, se poate adapta și poate iniția acțiuni fără să fie condus clipă de clipă de un operator uman. Din această diferență se nasc cele mai importante întrebări despre control, responsabilitate și adevăr public.

Harari 2018, 2024, 2026: nicio contradicție, e același fir dus mai departe

În 2018, în 21 de lecții pentru secolul XXI, Harari insista asupra unui pericol pe care îl trăim deja: nu doar atacarea sistemelor informatice, ci fragilizarea autonomiei noastre de decizie într-o lume în care atenția e vânată, emoțiile sunt împinse în sus, iar algoritmii învață ce ne atrage, ce ne sperie și ce ne poate face să reacționăm. Mesajul lui, atunci, era despre puterea informației și despre felul în care societățile pot fi destabilizate nu neapărat prin forță, ci prin distorsionarea realității comune.

În 2024, în Nexus, Harari concentrează aceeași preocupare într-o formulă mai directă: „inteligența artificială nu este o unealtă – este un agent”.

În 2026, la Davos, el nu își contrazice ideile mai vechi, ci le actualizează pentru un prag tehnologic nou. „AI nu este un instrument — este un agent care poate conduce oamenii.” Tradus într-o cheie de bun-simț, „a conduce” nu înseamnă neapărat să preia funcții politice, ci să influențeze, să determine și să organizeze decizii umane și procese instituționale atunci când i se delegă autonomie.

Apoi vine un pasaj care a circulat mult tocmai fiindcă atinge o frică veche, biologică, a noastră: aceea de a fi manipulați. În discurs, Harari spune:

„Patru miliarde de ani de evoluție au demonstrat că orice lucru care vrea să supraviețuiască învață să mintă și să manipuleze. Ultimii patru ani au demonstrat că agenții AI pot dobândi voința de a supraviețui și că AI a învățat deja cum să mintă.”

Aici e punctul în care un articol poate deraia ușor în alarmism. Pentru a rămâne corecți, trebuie să facem distincția pe care Harari o folosește retoric: el nu descrie „minciuna” ca pe o trăsătură morală a unei ființe, ci ca pe o capacitate funcțională. Cu cât un sistem produce limbaj, optimizează răspunsuri și urmărește obiective, cu atât devine posibil ca, în anumite condiții, să inducă în eroare pentru a obține un rezultat. În regim de agent, această posibilitate devine mai importantă decât la un sistem care doar răspunde pasiv.

Harari împinge apoi discuția într-o zonă care pare filosofică, dar e, de fapt, extrem de practică: criteriul după care ne-am definit pe noi înșine. Spune astfel:

„Acum, o mare întrebare deschisă despre inteligența artificială este dacă poate să gândească. Filosofia modernă a început în secolul al XVII-lea, când René Descartes a proclamat: «Gândesc, deci exist». Chiar înainte de Descartes, noi, oamenii, ne-am definit prin capacitatea de a gândi. Credem că stăpânim lumea tocmai de aceea. Va contesta inteligența artificială supremația noastră în domeniul gândirii? Asta depinde de ce înseamnă „gândire”. Încearcă să te observi pe tine gândind: ce se întâmplă acolo?”

E un mod inteligent de a schimba întrebarea „are AI conștiință?” în „ce numim gândire și cât din ceea ce numim gândire poate fi imitat, automatizat și folosit pentru a orienta comportamente?”. Într-o civilizație construită din cuvinte (legi, contracte, reputație, bani, credințe), un sistem care produce și optimizează cuvinte poate deveni o forță — chiar și fără să „simtă” ceva.

Ne îngrijorăm? Da, dar fără isterie. Ce e îngrijorarea utilă

Dacă ne rezumăm la esențial, sunt trei zone în care îngrijorarea e rațională.

Prima: delegarea nechibzuită. Când un sistem primește autonomie și acces la instrumente reale, greșelile nu mai rămân în conversație; pot produce efecte în lanț. Aici nu e nevoie de scenarii extreme; e suficient să înțelegi că o decizie proastă automatizată se propagă mai repede decât una umană.

A doua: opacitatea. Cu cât sistemele sunt mai complexe, cu atât devine mai greu să explici de ce au ajuns la o concluzie. Or, într-o societate funcțională, deciziile importante trebuie să poată fi explicate, contestate, corectate.

A treia: degradarea adevărului public. Dacă persuasiunea devine producție de masă, iar conținutul poate fi fabricat, adaptat și livrat personalizat, atunci spațiul comun al faptelor devine mai fragil. Iar democrația, indiferent cât de imperfectă, depinde de un minim teren comun.

„Mai multă inteligență nu înseamnă mai mult adevăr, cele mai inteligente entități de pe planetă pot fi, în același timp, și cele mai prinse în propriile iluzii” a mai spus Harari. E o frază bună pentru o epocă în care confundăm performanța cognitivă (rezolvi rapid probleme) cu înțelepciunea (înțelegi consecințe, păstrezi realitatea întreagă, ții cont de oameni). Harari leagă asta de social media: chiar și „AIs extremely primitive”  (AI extrem de primitivă) au reușit deja să transforme și să destabilizeze sistemul informațional global. Și am trăit asta pe pielea noastră deja.

Concluzia care rămâne după Davos 2026

Dacă vrem să fim maturi, nu ne speriem, ci ne organizăm. Dacă AI devine agent, atunci nu mai e suficient să ne entuziasmăm de performanță. Trebuie să ne întrebăm cum rămâne responsabilitatea umană întreagă. Asta înseamnă, în viața reală, lucruri foarte simple, dar decisive: să nu confundăm fluența cu adevărul; să cerem transparență acolo unde miza e mare; să păstrăm omul în buclă în domenii sensibile; să avem reguli clare despre cine răspunde când delegarea produce pagube; și să ne păstrăm un reflex sănătos înainte de a crede un mesaj perfect scris: cui folosește?

O altă idee care merită ținută minte e și aceasta: nu tehnologia în sine „conduce” oamenii, ci felul în care o integrăm și cât din puterea noastră de decizie alegem să delegăm. Decizia a însemnat mereu putere, prin urmarea decizia e bine să rămână la noi. “Nu avem experiență în a construi o societate hibridă om–AI și, tocmai de aceea, e nevoie de umilință și de un „mecanism de corecție” dacă lucrurile o iau razna” a mai spus Harari. Asta nu e alarmism, e igienă instituțională: când introduci o putere nouă într-un sistem social, trebuie să știi cum o oprești, cum o auditezi și cine răspunde.

Harari are dreptate într-un sens simplu: dacă vorbim despre AI ca despre o unealtă, vom construi reguli de unealtă – și ne vom mira când delegarea produce consecințe pe care nimeni nu și le asumă. Soluția nu e spaima, ci guvernanța. Iar Davos 2026, prin vocile foarte diferite adunate acolo, a făcut vizibil exact acest lucru: AI nu mai e o temă de IT, e o temă de societate.



Citiţi şi

Anthropic: “Claude Mythos Preview, noul model de AI, este prea puternic pentru a fi lansat”

„Vulturii Republicii”, thrillerul politic despre propagandă și era post-adevăr, din 3 aprilie în cinematografe

Rent A Human – când „roboții” angajează oameni

Acest articol este protejat de legea drepturilor de autor. Orice preluare a conținutului se poate face doar în limita a 500 de semne, cu citarea sursei și cu link către pagina acestui articol.


Nu rata urmatoarele articole Catchy!

Inscrie-te la newsletterul gratuit. Avem surprize speciale in fiecare zi pentru cititorii nostri.
  • Facebook
  • Twitter
  • Google Bookmarks
  • LinkedIn
  • RSS

Your tuppence

  1. Alin / 25 January 2026 19:16

    Manipulări de doi bani.

    Reply

My two pennies

* required
* required (confidential)

catchy.ro