This post was originally published on this site.


Conform datelor INS, în 2025, 89,1% din gospodăriile din România au conexiune la internet. Pe de altă parte, Data Reportal transmitea în 2024 că 45,9% dintre români aveau un cont activ de Facebook. Indicele DESI (Digital Economy and Society Index) al Comisiei Europene arată în 2024 că 72,3% dintre români nu au cel puțin competențe digitale de bază. Dacă mai luăm în calcul și indicele de Alfabetizare Media, unde România a obținut 32 de puncte din 100, sau nivelul persoanelor analfabete funcțional (conform PISA 2022, 42% dintre elevi și conform raportului Ministerului Educației din 2025, 4 din 10 adulți), înțelegem aproape instant că e puțin spus că o ducem rău.

În aceeași idee, o analiză a site-ului dfrlab.org din aprilie 2025 clasa România ca țintă de pe locul 13 la nivelul de flux al știrilor false venite dinspre Răsărit. Chiar dacă ANCOM, CNA, DNSC și uneori chiar și IGPR au rolul principal de a proteja populația civilă de aceste interferențe mediatice, e puțin mai complicat decât pare. Într-un mix delicat dintre incompetență, nepăsare și evoluție tehnologică, multe “fapte” scapă și circulă fără probleme pe vastul Social Media.

Însă această stare de haos mediatic a luat amploare cu adevărat abia în anul 2024, când contextul politic din România se regăsea în perioada electorală. Acesta a fost mediul propice pentru ca “suveraniștii” (termen exploatat intens de AUR și SOS) să preia controlul în mediul online. Astfel ia naștere Călin Georgescu și întregul fenomen socio-politic din jurul acestuia. Trebuie înțeles faptul că nu este întâmplătoare ascensiunea fulminantă a trendului “suveranist” sau popularitatea lui Călin Georgescu și nici ce a urmat după anularea alegerilor prezidențiale de către CCR în 6 decembrie 2024. Totul este rezultatul unui cumul de factori sociali studiați mult prea bine pentru a exista erori.

După cum explicam în materialul Cum ne spală online-ul pe creier, unul dintre principalii factori motori ai acestor evenimente este abstractul algoritm. Reiterând pe scurt: Ciprian vede pe Facebook o știre despre Ilie Bolojan care vrea să vândă România pe o cafea și un pachet de Kent. Curios din fire, intră pe link și citește revoltat despre relele intenții ale prim-ministrului. Indignarea îl face să distribuie pe Facebook articolul, ca să vadă și alții ce planuri mârșave are premierul. De fapt, ce s-a întâmplat aici? Ciprian a fost testat de către algoritm cum răspunde la un anumit model de știri. Accesând și citind știrea, algoritmul a înțeles că timpul petrecut în pagina articolului este corespunzător timpului mediu de citire calculat pe baza literelor și spațiilor din care este format materialul. Astfel, atât algoritmul Google, cât și algoritmul Facebook au însemnat în dreptul lui Ciprian că este o persoană interesată de negativismul din jurul lui Ilie Bolojan. Adică, îi vor livra din ce în ce mai multe știri pentru a stabili cât de interesat este de subiect. După cel mult 14 zile, algoritmii vor cunoaște în detaliu ce îl interesează pe Ciprian și ce nu. Ulterior nu rămâne decât ca algoritmii să-i prezinte persoane sau pagini cu interese asemănătoare și să-i livreze “cele mai bune” titluri.

Însă tehnologia avansează mai rapid decât ne putem imagina. Atât anul 2024, dar mai ales anul 2025, a fost marcat de cea mai puternică “armă” a dezinformării: imaginea. Și nu, nu mă refer la o fotografie ciudată în care Ilie Bolojan este surprins cu o față amuzantă în care sprâncenele lui par că se contopesc, ci la imaginile generate cu Inteligență Artificială. Fie că vorbim despre imagini statice (fotografii) sau imagini în mișcare (video), generatoarele de imagine au ajuns la un nivel care până mai ieri părea imposibil de atins de către “o pagină de pe net”.

După cum spuneam la începutul materialului, România suferă de pe urma analfabetismului funcțional. Un termen folosit pentru persoanele care pot să citească, dar le este greu să înțeleagă ceea ce au citit. La fel spuneam și despre Ciprian, care a citit indignat intențiile premierului și s-a decis să anunțe și ceilalți prieteni virtuali. Însă aici apare cel mai mare și important “dar” din întregul material: pentru a se elimina acest factor cheie din comunicare, adică înțelegerea mesajului, se face apel la un mod mai ușor de decodificare, adică imaginea. Pentru a vedea o imagine nu ai nevoie de abecedar, de școală, de competențe lingvistice… totul este bazat pe o percepție naturală. Pe scurt, pentru interesele dezinformării, este mai eficientă folosirea unei imagini decât a unui text.

Ce are de spus Ciprian despre asta? Chiar mai puține decât anterior. Algoritmii funcționează la fel, doar că aici măsoară timpul pe care Ciprian îl petrece privind imaginea. Ce mai contează că imaginea este falsă? Ce mai contează că Ilie Bolojan nu s-a întâlnit niciodată cu Filip al VI-lea al Spaniei? Dacă imaginea îi prezintă pe cei doi dând mâna, e clar că au încheiat un acord. Dacă imaginea vine și într-un context favorabil pentru a stârni panică sau ură față de respectivul “acord”, cu atât mai bine.

Primul rezultat generat de AI la cererea “am nevoie să-mi generezi o imagine cât mai realistă cu Ilie Bolojan, care dă mâna într-un cadru oficial cu Filip al VI-lea al Spaniei”.

Este de prisos să menționez că, în contextul unei cereri mai detaliate, în care se adaugă și fotografii de referință, imaginea poate ieși și mai realistă. Sau, un alt “truc” ar fi scăderea calității, astfel eliminând “detaliile nedorite”.

Abia acum am ajuns la miezul problemei, de fapt. Fiecare persoană are “lumea ei” pe Social Media: grupuri din care face parte, pagini pe care le urmărește, prieteni, dar și alte recomandări pe baza comportamentului. Pe baza acestor premise, în doar câteva minute pe Facebook-ul greșit, am constatat următoarele:

Există și se propagă în continuare o nostalgie a perioadei ceaușiste. Bazându-se pe imagini din perioada de dinainte de decembrie ’89, se face apel la diverse diferențe de trai, comparându-se anii ’80 cu prezentul. Scopul? Trezirea în rândul populației a unui sentiment de revoltă și de răzvrătire împotriva actualului sistem. Exact cum AUR, ulterior și SOS, a profitat din plin de pandemia de COVID pentru a-și forma o masă de adepți, trezind sentimentul “suveranist” în rândul celor ce nu înțelegeau minimul de restricție impus.

Călin Georgescu încă reprezintă un punct important în narațiunea politică din lumea online. În ciuda tuturor evenimentelor judiciare și a informațiilor ce au ieșit la iveală despre “cariera” și “intențiile” sale, masa de susținători pare să se mențină și să fie una dintre cele mai închegate din istoria recentă a politicii românești.

Tot în acest spectru, aș vrea să atrag atenția asupra unui fenomen ciudat. În mai multe rânduri, am regăsit idei de genul: “e editată în Photoshop”, “nu mai photoshopați atât”, “nu e poză reală, e făcută în Photoshop”. Ca persoană ce lucrează de aproape 10 ani în Photoshop, pot spune doar că astfel de imagini, pentru a fi create manual, ar consuma un timp considerabil. Dar paradoxul este că aceleași persoane care condamnă izul de Photoshop distribuie și încurajează diverse imagini generate cu ajutorul AI. De ce? Simplu. În Photoshop, ca și în presă, cineva are controlul “la butoane”. Există o persoană reală, palpabilă, care își manifestă intențiile prin diferite tehnici de editare și manipulare vizuală. În utilizarea AI există doar solicitantul (persoana care scrie cerința) și restul se întâmplă de la sine. Nu există un individ palpabil care să poată fi tras la răspundere sau luat la întrebări. “Butoanele” sunt în mâna oricui.

Bazat pe aceste observații, accentuăm ideea în care imaginea primează înaintea textului și faptul că procesul dezinformării are atât de multe forme și mixuri, încât ne va fi din ce în ce mai greu să găsim “adevărul”. De acord, “adevărul” este subiectiv, dar trebuie să facem o diferență clară între un concept filozofic și o faptă ce este prezentată din diferite perspective, astfel căpătând și diferite sensuri.

De fapt, ceea ce vreau să transmit este faptul că anul 2026 va fi marcat de foarte multe încercări în ceea ce înseamnă veridicitatea știrilor și informațiilor pe care le consumăm, fie în mediul online, fie în viața de zi cu zi.

Tehnologia și instrumentele de dezinformare nu mai sunt de domeniul SF-ului. Pe TikTok sunt persoane care vând telefoane și interfețe pentru ferme de boți, oricine are un telefon cu cameră video și internet, nu există instituții care să monitorizeze în timp real volumul de informații răspândit în mediul online și nici nu suntem pregătiți colectiv pentru a combate un fenomen de o asemenea amploare. Toate datele prezentate la început nu sunt decât factori care amplifică predispoziția de a cădea în astfel de bule mediatice.

Nu în ultimul rând, ar trebui să mai trecem în revistă și faptul că presa ce deține procente importante din piața din România livrează informații îndoielnice sau scrise într-o manieră care denigrează sau “curăță de păcate” pe cineva.

Din nefericire, asistăm la un fenomen psiho-social care încurajează ura, neîncrederea, denigrarea și ruperea de normele sociale. Și nu doar că asistăm, dar îl trăim zi de zi și învățăm din mers cum ne putem adapta și supraviețui.

The post Poza care face cât o mie de minciuni. România, în bula algoritmilor: cum ne fabrică internetul realitatea appeared first on Investigatoria.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *