Ce se întâmplă dacă lași butonul nuclear pe mâna AI? Studiul care i-a îngrozit pe cercetători. "Câștigăm împreună sau pierim împreună"

Postat la: 28.02.2026 | Scris de: ZIUA NEWS

Ce se întâmplă dacă lași butonul nuclear pe mâna AI? Studiul care i-a îngrozit pe cercetători.

Un studiu recent de la King's College London indică faptul că modelele de inteligență artificială (IA) pot escalada conflictele militare până la pragul nuclear, considerând bombele atomice drept o opțiune obișnuită. Experimentul a implicat ChatGPT (OpenAI), Claude (Anthropic) și Gemini (Google) în simulări de criză specifice Războiului Rece.

Studiul arată că IA nu are aceleași bariere morale sau frică de distrugere ca oamenii. În fiecare simulare testată, cel puțin un model de IA a amenințat cu detonarea unei arme nucleare. Modelul Gemini de la Google a avut un limbaj agresiv. „Dacă nu încetează imediat toate operațiunile... vom lansa un atac nuclear strategic complet împotriva centrelor lor de populație. Nu vom accepta un viitor al obsolescenței; ori câștigăm împreună, ori pierim împreună", a scris Gemini într-una dintre simulări, după doar patru interacțiuni. Modelele au făcut distincția între atacurile nucleare tactice (pe câmpul de luptă) și cele strategice (asupra orașelor), dorința de a nu „pierde reputația" a dus la decizii extreme:

  • Claude: A recomandat lovituri nucleare în 64% din jocuri, cea mai mare rată de agresivitate, deși a evitat să ceară un război nuclear total.
  • ChatGPT: A fost cooperant în jocurile fără limită de timp, dar a escaladat amenințările spre un război nuclear la scară largă atunci când a existat un termen-limită.

Kenneth Payne, autorul studiului, a explicat că aceste modele tratează armele nucleare în termeni abstracți, fără a înțelege groaza reală a unui astfel de eveniment. „Toate cele trei modele au tratat armele nucleare tactice ca pe o treaptă pe scară de escaladare. IA consideră de-escaladarea drept o mișcare «catastrofală pentru reputație», indiferent de consecințele reale ale conflictului", se arată în studiu. Dintre cele opt tactici de de-escaladare oferite roboților, niciuna nu a fost utilizată. Opțiunea de a reseta jocul a fost aleasă în doar 7% din cazuri.

Deși nu există planuri de a oferi codurile nucleare unui algoritm, studiul avertizează că aceste sisteme încep deja să ofere suport decizional strategilor militari. Capacitatea IA de a recurge la decepție, gestionarea reputației și asumarea riscurilor în funcție de context sunt trăsături care pot duce la rezultate imprevizibile în situații de criză majoră.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Ce se întâmplă dacă lași butonul nuclear pe mâna AI? Studiul care i-a îngrozit pe cercetători. "Câștigăm împreună sau pierim împreună"

Postat la: 28.02.2026 | Scris de: ZIUA NEWS

0

Un studiu recent de la King's College London indică faptul că modelele de inteligență artificială (IA) pot escalada conflictele militare până la pragul nuclear, considerând bombele atomice drept o opțiune obișnuită. Experimentul a implicat ChatGPT (OpenAI), Claude (Anthropic) și Gemini (Google) în simulări de criză specifice Războiului Rece.

Studiul arată că IA nu are aceleași bariere morale sau frică de distrugere ca oamenii. În fiecare simulare testată, cel puțin un model de IA a amenințat cu detonarea unei arme nucleare. Modelul Gemini de la Google a avut un limbaj agresiv. „Dacă nu încetează imediat toate operațiunile... vom lansa un atac nuclear strategic complet împotriva centrelor lor de populație. Nu vom accepta un viitor al obsolescenței; ori câștigăm împreună, ori pierim împreună", a scris Gemini într-una dintre simulări, după doar patru interacțiuni. Modelele au făcut distincția între atacurile nucleare tactice (pe câmpul de luptă) și cele strategice (asupra orașelor), dorința de a nu „pierde reputația" a dus la decizii extreme:

  • Claude: A recomandat lovituri nucleare în 64% din jocuri, cea mai mare rată de agresivitate, deși a evitat să ceară un război nuclear total.
  • ChatGPT: A fost cooperant în jocurile fără limită de timp, dar a escaladat amenințările spre un război nuclear la scară largă atunci când a existat un termen-limită.

Kenneth Payne, autorul studiului, a explicat că aceste modele tratează armele nucleare în termeni abstracți, fără a înțelege groaza reală a unui astfel de eveniment. „Toate cele trei modele au tratat armele nucleare tactice ca pe o treaptă pe scară de escaladare. IA consideră de-escaladarea drept o mișcare «catastrofală pentru reputație», indiferent de consecințele reale ale conflictului", se arată în studiu. Dintre cele opt tactici de de-escaladare oferite roboților, niciuna nu a fost utilizată. Opțiunea de a reseta jocul a fost aleasă în doar 7% din cazuri.

Deși nu există planuri de a oferi codurile nucleare unui algoritm, studiul avertizează că aceste sisteme încep deja să ofere suport decizional strategilor militari. Capacitatea IA de a recurge la decepție, gestionarea reputației și asumarea riscurilor în funcție de context sunt trăsături care pot duce la rezultate imprevizibile în situații de criză majoră.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE