Armata de comentatori. Cum a transformat inteligența artificială fermele rusești de boți în arme de influență

Postat la: 21.11.2025 | Scris de: ZIUA NEWS

Armata de comentatori. Cum a transformat inteligența artificială fermele rusești de boți în arme de influență

Anul 2024 a marcat un punct fără precedent în istoria internetului: pentru prima dată, activitatea roboților online a depășit traficul generat de oameni, potrivit raportului anual Bad Bot Report al companiei Imperva, care monitorizează traficul automatizat de pe internet.

Această creștere spectaculoasă se datorează inteligenței artificiale, care a permis extinderea rapidă și scalabilă a operațiunilor de influență online. Fermele rusești de boți, active de ani de zile în încercarea de a influența opinia publică din Ucraina, s-au transformat astfel în ecosisteme autonome de comentatori automați, capabili să genereze sute de mii de comentarii lunar, fără intervenția umană.

Comentatorii roboți au apărut pe rețelele sociale ucrainene încă din timpul Revoluției Demnității. Atunci, Agenția de Cercetare pe Internet a lui Evgheni Prigojin, cunoscută drept „trolurile lui Olghin", angaja sute de ruși care, contra cost, rescriau știri sau postau comentarii conform unor ghiduri transmise de sus.

Astăzi, aceste metode par depășite: avatarele sunt generate de AI, iar roboții discută online mai convingător decât mulți oameni. Generativul AI a înlocuit angajații din birourile din Sankt Petersburg, oferind o muncă mai rapidă și mai ieftină, fără pauze sau concedii. Astfel, campaniile de influență pot depăși granițele regionale și lingvistice, atingând audiențe mult mai mari.

În vara acestui an, echipele OpenMinds și DFRLab, specializate în analiza dezinformării, au identificat peste 3.600 de roboți activi în canale Telegram din teritoriile ocupate ale Ucrainei. În mai puțin de 18 luni, aceștia au publicat peste 316.000 de comentarii menite să legitimizeze ocupația. Aproximativ un sfert dintre comentarii erau unice, deși mesajele promovate erau similare: elogii pentru Putin și armata rusă, demonizare a președintelui Zelenski și susținere a autorităților de ocupație.

Un singur bot putea posta zilnic în zeci de canale, acoperind subiecte diverse, de la cultură la alimentarea cu electricitate și apă. Într-un caz documentat, un utilizator anonim a postat 1.449 de comentarii în 65 de canale în doar o zi, fiind ulterior blocat de Telegram pentru activitate excesivă.

Roboții au început să imite comportamentul uman - postând în orele active și evitând nopțile - ceea ce face identificarea lor tot mai dificilă pentru moderatori și utilizatori.

Aceeași tehnologie a fost folosită și în Moldova, înaintea alegerilor parlamentare din septembrie 2024. Aproximativ 500 de roboți au generat peste 80.000 de comentarii în limba rusă și română, promovând partide prorusești, denigrând guvernul și îndemnând la proteste. Analiza a arătat că peste 75% dintre acești roboți erau deja activi în Telegram-ul din Ucraina și Rusia, confirmând conexiunea cu aceleași ferme rusești de boți.

În Moldova, algoritmii AI au produs comentarii în proporție de 95% unice și adaptate fiecărui post, ceea ce le-a făcut mult mai convingătoare decât textele standardizate utilizate anterior. Cu toate acestea, algoritmii mai fac greșeli, de exemplu asociind comentarii irelevante unor postări despre vreme sau infrastructură.

Procesul este simplu în principiu: un algoritm monitorizează rețelele sociale, identifică postările relevante și generează comentarii adaptate temei fiecărui mesaj, fără a necesita intervenție umană constantă. Cea mai dificilă parte este învățarea contextului: roboții trebuie să posteze mesaje potrivite sub fiecare tip de conținut, fără a crea contradicții evidente.

Cu cât algoritmul învață din mai multe date, cu atât erorile devin mai rare. Astăzi, majoritatea comentariilor generate de roboți sunt aproape imposibil de diferențiat de cele ale oamenilor, fără a analiza activitatea lor pe mai multe canale.

=Platformele încearcă să limiteze conturile neautentice, dar motivația este redusă: roboții cresc numărul utilizatorilor și veniturile din publicitate. Chiar dacă sunt identificați și șterși, noi conturi pot fi create rapid, ceea ce face ca problema să fie persistentă. Fact-checking-ul nu rezolvă problema, deoarece multe comentarii nu sunt știri false, ci opinii aparent autonome, greu de combătut.

Scopul principal al acestor campanii nu este doar dezinformarea, ci crearea unui consens fals. Comentariile generate de roboți pot crea impresia că majoritatea populației susține anumite poziții, chiar dacă realitatea este diferită.

Specialiștii recomandă informarea publicului despre aceste tehnologii și limitarea interacțiunii cu comentarii anonime sau nemoderate, pentru a reduce eficiența campaniilor de manipulare.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Armata de comentatori. Cum a transformat inteligența artificială fermele rusești de boți în arme de influență

Postat la: 21.11.2025 | Scris de: ZIUA NEWS

0

Anul 2024 a marcat un punct fără precedent în istoria internetului: pentru prima dată, activitatea roboților online a depășit traficul generat de oameni, potrivit raportului anual Bad Bot Report al companiei Imperva, care monitorizează traficul automatizat de pe internet.

Această creștere spectaculoasă se datorează inteligenței artificiale, care a permis extinderea rapidă și scalabilă a operațiunilor de influență online. Fermele rusești de boți, active de ani de zile în încercarea de a influența opinia publică din Ucraina, s-au transformat astfel în ecosisteme autonome de comentatori automați, capabili să genereze sute de mii de comentarii lunar, fără intervenția umană.

Comentatorii roboți au apărut pe rețelele sociale ucrainene încă din timpul Revoluției Demnității. Atunci, Agenția de Cercetare pe Internet a lui Evgheni Prigojin, cunoscută drept „trolurile lui Olghin", angaja sute de ruși care, contra cost, rescriau știri sau postau comentarii conform unor ghiduri transmise de sus.

Astăzi, aceste metode par depășite: avatarele sunt generate de AI, iar roboții discută online mai convingător decât mulți oameni. Generativul AI a înlocuit angajații din birourile din Sankt Petersburg, oferind o muncă mai rapidă și mai ieftină, fără pauze sau concedii. Astfel, campaniile de influență pot depăși granițele regionale și lingvistice, atingând audiențe mult mai mari.

În vara acestui an, echipele OpenMinds și DFRLab, specializate în analiza dezinformării, au identificat peste 3.600 de roboți activi în canale Telegram din teritoriile ocupate ale Ucrainei. În mai puțin de 18 luni, aceștia au publicat peste 316.000 de comentarii menite să legitimizeze ocupația. Aproximativ un sfert dintre comentarii erau unice, deși mesajele promovate erau similare: elogii pentru Putin și armata rusă, demonizare a președintelui Zelenski și susținere a autorităților de ocupație.

Un singur bot putea posta zilnic în zeci de canale, acoperind subiecte diverse, de la cultură la alimentarea cu electricitate și apă. Într-un caz documentat, un utilizator anonim a postat 1.449 de comentarii în 65 de canale în doar o zi, fiind ulterior blocat de Telegram pentru activitate excesivă.

Roboții au început să imite comportamentul uman - postând în orele active și evitând nopțile - ceea ce face identificarea lor tot mai dificilă pentru moderatori și utilizatori.

Aceeași tehnologie a fost folosită și în Moldova, înaintea alegerilor parlamentare din septembrie 2024. Aproximativ 500 de roboți au generat peste 80.000 de comentarii în limba rusă și română, promovând partide prorusești, denigrând guvernul și îndemnând la proteste. Analiza a arătat că peste 75% dintre acești roboți erau deja activi în Telegram-ul din Ucraina și Rusia, confirmând conexiunea cu aceleași ferme rusești de boți.

În Moldova, algoritmii AI au produs comentarii în proporție de 95% unice și adaptate fiecărui post, ceea ce le-a făcut mult mai convingătoare decât textele standardizate utilizate anterior. Cu toate acestea, algoritmii mai fac greșeli, de exemplu asociind comentarii irelevante unor postări despre vreme sau infrastructură.

Procesul este simplu în principiu: un algoritm monitorizează rețelele sociale, identifică postările relevante și generează comentarii adaptate temei fiecărui mesaj, fără a necesita intervenție umană constantă. Cea mai dificilă parte este învățarea contextului: roboții trebuie să posteze mesaje potrivite sub fiecare tip de conținut, fără a crea contradicții evidente.

Cu cât algoritmul învață din mai multe date, cu atât erorile devin mai rare. Astăzi, majoritatea comentariilor generate de roboți sunt aproape imposibil de diferențiat de cele ale oamenilor, fără a analiza activitatea lor pe mai multe canale.

=Platformele încearcă să limiteze conturile neautentice, dar motivația este redusă: roboții cresc numărul utilizatorilor și veniturile din publicitate. Chiar dacă sunt identificați și șterși, noi conturi pot fi create rapid, ceea ce face ca problema să fie persistentă. Fact-checking-ul nu rezolvă problema, deoarece multe comentarii nu sunt știri false, ci opinii aparent autonome, greu de combătut.

Scopul principal al acestor campanii nu este doar dezinformarea, ci crearea unui consens fals. Comentariile generate de roboți pot crea impresia că majoritatea populației susține anumite poziții, chiar dacă realitatea este diferită.

Specialiștii recomandă informarea publicului despre aceste tehnologii și limitarea interacțiunii cu comentarii anonime sau nemoderate, pentru a reduce eficiența campaniilor de manipulare.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE