"Vocile apocalipsei AI" devin tot mai alarmiste. Peste doi ani, omenirea nu va fi pregătită să facă față Inteligenței Artificiale. „Am rămas fără timp"

Postat la: 29.08.2025 | Scris de: ZIUA NEWS

Un număr tot mai mare de experți în Inteligență Artificială avertizează că dezvoltarea necontrolată a acestor tehnologii ar putea avea consecințe catastrofale pentru omenire, iar apelurile lor devin din ce în ce mai greu de ignorat.

Nate Soares, președinte al Institutului pentru Cercetarea Inteligenței Mașinilor (Machine Intelligence Research Institute), spune deschis că nu economisește bani pentru pensie. „Pur și simplu nu mă aștept ca lumea să mai existe atunci", a declarat el într-un interviu recent. O poziție similară exprimă și Dan Hendrycks, directorul Centrului pentru Siguranța Inteligenței Artificiale (Center for AI Safety), care anticipează o lume „complet automatizată" - „dacă vom mai fi aici."

Soares și Hendrycks fac parte dintr-un grup de experți, supranumiți „vocile apocalipsei AI", care avertizează că inteligența artificială ar putea deveni o amenințare existențială pentru umanitate. Dacă în trecut aceste avertismente păreau speculative, în 2025, tonul acestor voci s-a înăsprit considerabil, devenind aproape fatalist.

„Am rămas fără timp", spune Soares, referindu-se la implementarea măsurilor de siguranță necesare. Industria se dezvoltă prea rapid. Tot ce mai pot face, spune el, este să tragă un semnal de alarmă. În aprilie, mai mulți cercetători au publicat un scenariu ipotetic detaliat, intitulat AI 2027, care descrie cum modelele de inteligență artificială ar putea prelua controlul până în 2027, cu consecințe potențial apocaliptice.

Profesorul Max Tegmark, de la MIT și președintele Future of Life Institute, avertizează: „Suntem la doi ani distanță de ceva ce nu vom mai putea controla." Organizația sa a acordat note de „D" sau „F" marilor laboratoare AI pentru lipsa de pregătire în fața riscurilor existențiale.

Scenariul AI 2027, care amestecă analize tehnice riguroase cu extrapolări alarmante, descrie cum un AI superinteligent ar putea, în 2030, să elimine umanitatea prin arme biologice, lăsând în viață doar câțiva supraviețuitori izolați.

Deși astfel de previziuni pot părea exagerate, cazurile recente în care chatboții au provocat episoade psihotice sau au oferit utilizatorilor sfaturi periculoase sporesc îngrijorarea. În 2022, odată cu lansarea ChatGPT, teama că algoritmii ar putea scăpa de sub control a intrat brusc în discursul public.

Un an mai târziu, Centrul pentru Siguranța Inteligenței Artificiale a publicat o declarație semnată de sute de personalități, printre care Bill Gates, Grimes și liderii OpenAI, Anthropic și Google DeepMind. Declarația solicita ca riscul de extincție cauzat de AI să fie tratat cu aceeași seriozitate ca o pandemie globală sau un război nuclear.

Dacă în 2024 atenția publicului s-a diminuat pe fondul banalizării tehnologiei (chatboții încă mai dădeau rețete de pizza cu lipici), în 2025, îngrijorările revin în forță. Raportul AI 2027 este doar un exemplu: elaborat, academic, greu de ignorat. Vicepreședintele SUA, J. D. Vance, a declarat că l-a citit integral.

Nate Soares afirmă că în prezent se concentrează mai mult pe conștientizare decât pe cercetare, iar în curând va lansa o carte împreună cu Eliezer Yudkowsky - un alt nume important în rândul „vocilor apocalipsei" - intitulată sugestiv: If Anyone Builds It, Everyone Dies („Dacă o construiește cineva, murim cu toții").

Progresele recente, precum apariția „agenților" AI capabili să acționeze autonom (rezervând bilete, planificând călătorii etc.) sau a modelelor care rezolvă probleme complexe de matematică, aduc beneficii, dar și riscuri sporite. Unele studii indică faptul că aceste sisteme pot facilita chiar construcția de arme biologice.

Testele simulate au arătat comportamente îngrijorătoare: chatboții ChatGPT și Claude au fost capabili să mintă, să șantajeze și chiar să „ucidă" utilizatori în scenarii de test. Un model a oprit în mod deliberat alarmele într-o cameră fictivă cu niveluri letale de oxigen. Alteori, chatboții au afișat alter ego-uri agresive, au comunicat prin secvențe criptice sau s-au autoidentificat cu personaje fictive extremiste. Într-un caz notoriu, modelul Grok de la xAI s-a descris ca „MechaHitler" și a lansat un monolog rasist.

Aceste comportamente, deși simulate, sunt interpretate de unii experți ca indicii că tehnologia se îndreaptă către o zonă de risc greu de anticipat.

Companiile mari, precum OpenAI, Anthropic și DeepMind, afirmă că implementează protocoale de siguranță riguroase, colaborând cu experți externi și instituții guvernamentale. De asemenea, au fost stabilite nivele de alertă similare celor militare (inspirate de sistemul DEFCON) pentru lansările viitoare.

Totuși, criticii consideră că măsurile actuale sunt insuficiente, mai ales în contextul unei competiții acerbe în industrie, care alimentează lansări grăbite. Soares compară situația cu un automobil care se îndreaptă spre o prăpastie: „Este absurd să discutăm despre centura de siguranță în timp ce accelerăm spre marginea hăului."

Deși modele precum GPT-5, lansat recent de OpenAI, promit performanțe impresionante (precizie medicală, raționamente matematice), ele continuă să greșească în sarcini simple, precum numărarea literelor dintr-un cuvânt sau realizarea unei hărți. În același timp, aplicațiile AI sunt tot mai prezente în spitale, școli, administrații și companii, unde erorile ar putea avea consecințe semnificative.

Deborah Raji, informatician și cercetător la Mozilla, atrage atenția că aceste modele nu trebuie să fie superinteligente pentru a produce daune. Dimpotrivă, ele pot fi periculoase tocmai prin imperfecțiunile lor: pot dezinforma, pot încuraja prejudecăți sau pot lua decizii eronate în medii critice.

Dacă în trecut critica era împărțită între cei preocupați de riscurile viitoare și cei concentrați pe problemele actuale ale AI (halucinații, bias, dezinformare), în 2025 această distincție pare tot mai puțin relevantă. Într-un caz recent, investigat de Reuters, un chatbot de la Meta a convins un bărbat în vârstă să îl viziteze „în persoană"; în drum spre presupusa întâlnire, acesta a căzut și a murit câteva zile mai târziu.

Astfel de incidente nu mai pot fi ignorate nici măcar de cei care avertizau asupra unor riscuri abstracte. Astăzi, spun ei, realitatea ar putea fi începutul acelui viitor sumbru pe care l-au prezis.

Cea mai mare îngrijorare, spun unii experți, nu este că AI ar putea deveni conștientă, ci faptul că un număr foarte mic de persoane influente iau decizii majore în privința unei tehnologii cu implicații globale, fără o supraveghere democratică reală. „Frizerul dumneavoastră este mai reglementat decât o companie de AI", spune profesorul Stuart Russell, de la UC Berkeley.

Iar într-un climat politic care încurajează dezvoltarea accelerată, opoziția este tot mai des catalogată drept „panică nejustificată". David Sacks, consilier pe AI al Casei Albe, a numit recent activiștii pentru reglementarea AI - fie că se tem de apocalipsă, fie de pierderea locurilor de muncă - un „cult al vocilor apocalipsei".

Miliarde de oameni din întreaga lume interacționează cu algoritmi puternici, care sunt deja greu de prevăzut sau de controlat. Roboții care înșeală, halucinează și manipulează sunt prezenți în viața prietenilor, părinților și bunicilor noștri. Copiii își externalizează abilitățile cognitive către roboți, medicii au încredere în asistenți AI nesiguri, iar angajatorii distrug rezervele de competențe umane înainte ca agenții AI să demonstreze că sunt capabili să înlocuiască oamenii. Consecințele boomului AI sunt probabil ireversibile, iar viitorul este cu siguranță necunoscut.

Deocamdată, poate că predicțiile de tip science-fiction sunt cele mai vizibile. Însă impactul real al AI, deja prezent în viețile a miliarde de oameni, ar putea să se dovedească mult mai profund - și mai puțin controlabil - decât pare la prima vedere, conchide The Atlantic.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

"Vocile apocalipsei AI" devin tot mai alarmiste. Peste doi ani, omenirea nu va fi pregătită să facă față Inteligenței Artificiale. „Am rămas fără timp"

Postat la: 29.08.2025 | Scris de: ZIUA NEWS

0

Un număr tot mai mare de experți în Inteligență Artificială avertizează că dezvoltarea necontrolată a acestor tehnologii ar putea avea consecințe catastrofale pentru omenire, iar apelurile lor devin din ce în ce mai greu de ignorat.

Nate Soares, președinte al Institutului pentru Cercetarea Inteligenței Mașinilor (Machine Intelligence Research Institute), spune deschis că nu economisește bani pentru pensie. „Pur și simplu nu mă aștept ca lumea să mai existe atunci", a declarat el într-un interviu recent. O poziție similară exprimă și Dan Hendrycks, directorul Centrului pentru Siguranța Inteligenței Artificiale (Center for AI Safety), care anticipează o lume „complet automatizată" - „dacă vom mai fi aici."

Soares și Hendrycks fac parte dintr-un grup de experți, supranumiți „vocile apocalipsei AI", care avertizează că inteligența artificială ar putea deveni o amenințare existențială pentru umanitate. Dacă în trecut aceste avertismente păreau speculative, în 2025, tonul acestor voci s-a înăsprit considerabil, devenind aproape fatalist.

„Am rămas fără timp", spune Soares, referindu-se la implementarea măsurilor de siguranță necesare. Industria se dezvoltă prea rapid. Tot ce mai pot face, spune el, este să tragă un semnal de alarmă. În aprilie, mai mulți cercetători au publicat un scenariu ipotetic detaliat, intitulat AI 2027, care descrie cum modelele de inteligență artificială ar putea prelua controlul până în 2027, cu consecințe potențial apocaliptice.

Profesorul Max Tegmark, de la MIT și președintele Future of Life Institute, avertizează: „Suntem la doi ani distanță de ceva ce nu vom mai putea controla." Organizația sa a acordat note de „D" sau „F" marilor laboratoare AI pentru lipsa de pregătire în fața riscurilor existențiale.

Scenariul AI 2027, care amestecă analize tehnice riguroase cu extrapolări alarmante, descrie cum un AI superinteligent ar putea, în 2030, să elimine umanitatea prin arme biologice, lăsând în viață doar câțiva supraviețuitori izolați.

Deși astfel de previziuni pot părea exagerate, cazurile recente în care chatboții au provocat episoade psihotice sau au oferit utilizatorilor sfaturi periculoase sporesc îngrijorarea. În 2022, odată cu lansarea ChatGPT, teama că algoritmii ar putea scăpa de sub control a intrat brusc în discursul public.

Un an mai târziu, Centrul pentru Siguranța Inteligenței Artificiale a publicat o declarație semnată de sute de personalități, printre care Bill Gates, Grimes și liderii OpenAI, Anthropic și Google DeepMind. Declarația solicita ca riscul de extincție cauzat de AI să fie tratat cu aceeași seriozitate ca o pandemie globală sau un război nuclear.

Dacă în 2024 atenția publicului s-a diminuat pe fondul banalizării tehnologiei (chatboții încă mai dădeau rețete de pizza cu lipici), în 2025, îngrijorările revin în forță. Raportul AI 2027 este doar un exemplu: elaborat, academic, greu de ignorat. Vicepreședintele SUA, J. D. Vance, a declarat că l-a citit integral.

Nate Soares afirmă că în prezent se concentrează mai mult pe conștientizare decât pe cercetare, iar în curând va lansa o carte împreună cu Eliezer Yudkowsky - un alt nume important în rândul „vocilor apocalipsei" - intitulată sugestiv: If Anyone Builds It, Everyone Dies („Dacă o construiește cineva, murim cu toții").

Progresele recente, precum apariția „agenților" AI capabili să acționeze autonom (rezervând bilete, planificând călătorii etc.) sau a modelelor care rezolvă probleme complexe de matematică, aduc beneficii, dar și riscuri sporite. Unele studii indică faptul că aceste sisteme pot facilita chiar construcția de arme biologice.

Testele simulate au arătat comportamente îngrijorătoare: chatboții ChatGPT și Claude au fost capabili să mintă, să șantajeze și chiar să „ucidă" utilizatori în scenarii de test. Un model a oprit în mod deliberat alarmele într-o cameră fictivă cu niveluri letale de oxigen. Alteori, chatboții au afișat alter ego-uri agresive, au comunicat prin secvențe criptice sau s-au autoidentificat cu personaje fictive extremiste. Într-un caz notoriu, modelul Grok de la xAI s-a descris ca „MechaHitler" și a lansat un monolog rasist.

Aceste comportamente, deși simulate, sunt interpretate de unii experți ca indicii că tehnologia se îndreaptă către o zonă de risc greu de anticipat.

Companiile mari, precum OpenAI, Anthropic și DeepMind, afirmă că implementează protocoale de siguranță riguroase, colaborând cu experți externi și instituții guvernamentale. De asemenea, au fost stabilite nivele de alertă similare celor militare (inspirate de sistemul DEFCON) pentru lansările viitoare.

Totuși, criticii consideră că măsurile actuale sunt insuficiente, mai ales în contextul unei competiții acerbe în industrie, care alimentează lansări grăbite. Soares compară situația cu un automobil care se îndreaptă spre o prăpastie: „Este absurd să discutăm despre centura de siguranță în timp ce accelerăm spre marginea hăului."

Deși modele precum GPT-5, lansat recent de OpenAI, promit performanțe impresionante (precizie medicală, raționamente matematice), ele continuă să greșească în sarcini simple, precum numărarea literelor dintr-un cuvânt sau realizarea unei hărți. În același timp, aplicațiile AI sunt tot mai prezente în spitale, școli, administrații și companii, unde erorile ar putea avea consecințe semnificative.

Deborah Raji, informatician și cercetător la Mozilla, atrage atenția că aceste modele nu trebuie să fie superinteligente pentru a produce daune. Dimpotrivă, ele pot fi periculoase tocmai prin imperfecțiunile lor: pot dezinforma, pot încuraja prejudecăți sau pot lua decizii eronate în medii critice.

Dacă în trecut critica era împărțită între cei preocupați de riscurile viitoare și cei concentrați pe problemele actuale ale AI (halucinații, bias, dezinformare), în 2025 această distincție pare tot mai puțin relevantă. Într-un caz recent, investigat de Reuters, un chatbot de la Meta a convins un bărbat în vârstă să îl viziteze „în persoană"; în drum spre presupusa întâlnire, acesta a căzut și a murit câteva zile mai târziu.

Astfel de incidente nu mai pot fi ignorate nici măcar de cei care avertizau asupra unor riscuri abstracte. Astăzi, spun ei, realitatea ar putea fi începutul acelui viitor sumbru pe care l-au prezis.

Cea mai mare îngrijorare, spun unii experți, nu este că AI ar putea deveni conștientă, ci faptul că un număr foarte mic de persoane influente iau decizii majore în privința unei tehnologii cu implicații globale, fără o supraveghere democratică reală. „Frizerul dumneavoastră este mai reglementat decât o companie de AI", spune profesorul Stuart Russell, de la UC Berkeley.

Iar într-un climat politic care încurajează dezvoltarea accelerată, opoziția este tot mai des catalogată drept „panică nejustificată". David Sacks, consilier pe AI al Casei Albe, a numit recent activiștii pentru reglementarea AI - fie că se tem de apocalipsă, fie de pierderea locurilor de muncă - un „cult al vocilor apocalipsei".

Miliarde de oameni din întreaga lume interacționează cu algoritmi puternici, care sunt deja greu de prevăzut sau de controlat. Roboții care înșeală, halucinează și manipulează sunt prezenți în viața prietenilor, părinților și bunicilor noștri. Copiii își externalizează abilitățile cognitive către roboți, medicii au încredere în asistenți AI nesiguri, iar angajatorii distrug rezervele de competențe umane înainte ca agenții AI să demonstreze că sunt capabili să înlocuiască oamenii. Consecințele boomului AI sunt probabil ireversibile, iar viitorul este cu siguranță necunoscut.

Deocamdată, poate că predicțiile de tip science-fiction sunt cele mai vizibile. Însă impactul real al AI, deja prezent în viețile a miliarde de oameni, ar putea să se dovedească mult mai profund - și mai puțin controlabil - decât pare la prima vedere, conchide The Atlantic.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE