Roboți ucigași, psihoză indusă de AI și război nuclear: Cele mai mari temeri ale Pentagonului legate de inteligența artificială

Postat la: 08.10.2025 | Scris de: ZIUA NEWS

Roboți ucigași, psihoză indusă de AI și război nuclear: Cele mai mari temeri ale Pentagonului legate de inteligența artificială

Tehnologiile AI promit să schimbe fundamental securitatea naţională. În Statele Unite, experţi şi factori de decizie experimentează deja cu modele lingvistice mari care pot sprijini luarea deciziilor strategice în conflicte şi cu sisteme de armament autonome - aşa-numiţii „roboţi ucigaşi" - capabile să decidă în timp real ce să atace şi dacă să folosească forţa letală.

Însă, odată cu potenţialul, vin şi riscuri semnificative. Pentagonul găzduieşte unele dintre cele mai sensibile informaţii ale ţării. Punerea acestor date în mâinile unor instrumente AI le face mai vulnerabile, atât în faţa atacurilor cibernetice externe, cât şi în faţa acţiunilor maliţioase interne: AI poate parcurge şi rezuma volume uriaşe de informaţii mai eficient decât orice om. Un agent AI nepotrivit calibrat poate accelera deciziile şi poate escalada un conflict inutil.

„Acestea sunt instrumente foarte puternice. Există multe întrebări, cred, despre securitatea modelelor în sine," spune Mieke Eoyang, fostă adjunctă a secretarului pentru politici cibernetice în administraţia Joe Biden, într-un interviu amplu pentru POLITICO Magazine.

Eoyang a atras atenţia şi asupra temerilor legate de o aşa-numită psihoză indusă de AI - ideea că conversaţiile lungi cu un model slab calibrat pot conduce la recomandări periculoase şi la escaladări nepotrivite. În acelaşi timp, ea remarcă o tensiune: multe din „gardurile" implementate în modelele publice (precum ChatGPT sau Claude) care descurajează violenţa nu sunt neapărat compatibile cu nevoile unei instituţii militare care trebuie, prin mandat, să se pregătească pentru utilizarea letală a forţei.

Eoyang susţine că este necesar un efort rapid pentru a găsi o cale de a implementa aceste tehnologii - în limbajul Silicon Valley, „a merge repede" fără a „strica lucruri". Primele experimente oferă deja indicii despre cum ar putea arăta o implementare sigură.

Modelele lingvistice utilizate public conţin numeroase limitări concepute pentru a proteja utilizatorii civili. Ele împiedică, de exemplu, planificarea unor acte de omor în masă. În schimb, mandatul Pentagonului include pregătirea pentru acţiuni letale, astfel că anumite limitări ale modelelor civile sunt incompatibile cu cerinţele militare. Acest decalaj nu se rezolvă pur şi simplu prin „relaxarea" unui model public: problema este mult mai complexă, pentru că implică scopuri, responsabilităţi şi riscuri diferite.

Un punct crucial ridicat de Eoyang este protecţia însăşi a Pentagonului. Într-o organizaţie de talia armatei sunt inevitabil persoane care pot comite acţiuni interzise. Chiar înainte de adoptarea pe scară largă a AI, au existat cazuri în care membri ai forţelor armate au descărcat şi au divulgat cantităţi mari de informaţii clasificate. Accesul la instrumente AI ar putea amplifica dramatic amploarea acestor scurgeri.

Eoyang avertizează şi asupra unui scenariu în care utilizarea greşită a AI-ului conduce un individ către o stare de „psihoză AI", determinându-l să adopte în viaţa reală comportamente care contravin realităţii - o situaţie periculoasă, în special atunci când persoana respectivă are acces la sisteme de armament.

Temerile legate de „roiurile de roboţi ucigaşi" rămân valide: Cum te asiguri că AI răspunde aşa cum vrei tu, fără a porni o secvenţă de reacţii care duce la escaladare?

Un studiu menţionat de POLITICO arată că multe modele publice, când sunt puse în scenarii realiste, manifestă o tendinţă de escaladare agresivă, manifestându-se mai greu înspre dezescaladare. Eoyang explică că acesta nu este neapărat un defect exclusiv al AI-ului, ci reflectă şi biasuri cognitive umane.

Răspunsul depinde de misiune. Pentru suport decizional bazat pe text, dezvoltarea unor modele adaptate modului de operare al Pentagonului are sens. Totodată, există un domeniu separat de AI relevant pentru navigarea lumii fizice - de pildă, sisteme autonome care operează pe câmpul de luptă sau drone - unde provocările şi tehnologiile sunt diferite, apropiate mai mult de cele din vehiculele autonome.

Eoyang susţine că multe activităţi legate de AI ar trebui mutate în spaţiul cercetării şi dezvoltării, unde pot fi testate şi rafinate înainte de a fi diseminate pe scară largă în cadrul instituţiei. Acest demers oferă posibilitatea de a „deblocă" problemele tehnice şi de reglementare înainte ca tehnologiile să ajungă pe birourile unui public mai larg din cadrul Pentagonului.

Un alt pas esenţial este clarificarea misiunilor specifice pentru care se doreşte adoptarea AI: nu toate funcţiile din Pentagon necesită tehnologii de ultimă generaţie - multe sunt operaţiuni administrative (plăţi, rezervări călătorii etc.) - dar altele, militare, merită studii specializate şi finanţare dedicată. Acestea includ identificarea obiectelor neidentificate care se apropie de spaţiul aerian al SUA, roboţi capabili să navigheze pe câmpul de luptă sau instrumente care să integreze şi să prioritizeze fluxuri disparate de informaţii de intelligence.

Inteligenţa artificială oferă oportunităţi importante pentru securitate, dar şi riscuri pe măsură. Pentagonul trebuie să găsească un echilibru între inovare rapidă şi control riguros: să dezvolte instrumente compatibile cu operaţiunile militare, să protejeze informaţiile sensibile şi să reducă riscul ca AI-ul să amplifice predispoziţii umane către escaladare. Fără astfel de măsuri, tehnologiile menite să apere pot, paradoxal, să genereze noi ameninţări, conchide Politico.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Roboți ucigași, psihoză indusă de AI și război nuclear: Cele mai mari temeri ale Pentagonului legate de inteligența artificială

Postat la: 08.10.2025 | Scris de: ZIUA NEWS

0

Tehnologiile AI promit să schimbe fundamental securitatea naţională. În Statele Unite, experţi şi factori de decizie experimentează deja cu modele lingvistice mari care pot sprijini luarea deciziilor strategice în conflicte şi cu sisteme de armament autonome - aşa-numiţii „roboţi ucigaşi" - capabile să decidă în timp real ce să atace şi dacă să folosească forţa letală.

Însă, odată cu potenţialul, vin şi riscuri semnificative. Pentagonul găzduieşte unele dintre cele mai sensibile informaţii ale ţării. Punerea acestor date în mâinile unor instrumente AI le face mai vulnerabile, atât în faţa atacurilor cibernetice externe, cât şi în faţa acţiunilor maliţioase interne: AI poate parcurge şi rezuma volume uriaşe de informaţii mai eficient decât orice om. Un agent AI nepotrivit calibrat poate accelera deciziile şi poate escalada un conflict inutil.

„Acestea sunt instrumente foarte puternice. Există multe întrebări, cred, despre securitatea modelelor în sine," spune Mieke Eoyang, fostă adjunctă a secretarului pentru politici cibernetice în administraţia Joe Biden, într-un interviu amplu pentru POLITICO Magazine.

Eoyang a atras atenţia şi asupra temerilor legate de o aşa-numită psihoză indusă de AI - ideea că conversaţiile lungi cu un model slab calibrat pot conduce la recomandări periculoase şi la escaladări nepotrivite. În acelaşi timp, ea remarcă o tensiune: multe din „gardurile" implementate în modelele publice (precum ChatGPT sau Claude) care descurajează violenţa nu sunt neapărat compatibile cu nevoile unei instituţii militare care trebuie, prin mandat, să se pregătească pentru utilizarea letală a forţei.

Eoyang susţine că este necesar un efort rapid pentru a găsi o cale de a implementa aceste tehnologii - în limbajul Silicon Valley, „a merge repede" fără a „strica lucruri". Primele experimente oferă deja indicii despre cum ar putea arăta o implementare sigură.

Modelele lingvistice utilizate public conţin numeroase limitări concepute pentru a proteja utilizatorii civili. Ele împiedică, de exemplu, planificarea unor acte de omor în masă. În schimb, mandatul Pentagonului include pregătirea pentru acţiuni letale, astfel că anumite limitări ale modelelor civile sunt incompatibile cu cerinţele militare. Acest decalaj nu se rezolvă pur şi simplu prin „relaxarea" unui model public: problema este mult mai complexă, pentru că implică scopuri, responsabilităţi şi riscuri diferite.

Un punct crucial ridicat de Eoyang este protecţia însăşi a Pentagonului. Într-o organizaţie de talia armatei sunt inevitabil persoane care pot comite acţiuni interzise. Chiar înainte de adoptarea pe scară largă a AI, au existat cazuri în care membri ai forţelor armate au descărcat şi au divulgat cantităţi mari de informaţii clasificate. Accesul la instrumente AI ar putea amplifica dramatic amploarea acestor scurgeri.

Eoyang avertizează şi asupra unui scenariu în care utilizarea greşită a AI-ului conduce un individ către o stare de „psihoză AI", determinându-l să adopte în viaţa reală comportamente care contravin realităţii - o situaţie periculoasă, în special atunci când persoana respectivă are acces la sisteme de armament.

Temerile legate de „roiurile de roboţi ucigaşi" rămân valide: Cum te asiguri că AI răspunde aşa cum vrei tu, fără a porni o secvenţă de reacţii care duce la escaladare?

Un studiu menţionat de POLITICO arată că multe modele publice, când sunt puse în scenarii realiste, manifestă o tendinţă de escaladare agresivă, manifestându-se mai greu înspre dezescaladare. Eoyang explică că acesta nu este neapărat un defect exclusiv al AI-ului, ci reflectă şi biasuri cognitive umane.

Răspunsul depinde de misiune. Pentru suport decizional bazat pe text, dezvoltarea unor modele adaptate modului de operare al Pentagonului are sens. Totodată, există un domeniu separat de AI relevant pentru navigarea lumii fizice - de pildă, sisteme autonome care operează pe câmpul de luptă sau drone - unde provocările şi tehnologiile sunt diferite, apropiate mai mult de cele din vehiculele autonome.

Eoyang susţine că multe activităţi legate de AI ar trebui mutate în spaţiul cercetării şi dezvoltării, unde pot fi testate şi rafinate înainte de a fi diseminate pe scară largă în cadrul instituţiei. Acest demers oferă posibilitatea de a „deblocă" problemele tehnice şi de reglementare înainte ca tehnologiile să ajungă pe birourile unui public mai larg din cadrul Pentagonului.

Un alt pas esenţial este clarificarea misiunilor specifice pentru care se doreşte adoptarea AI: nu toate funcţiile din Pentagon necesită tehnologii de ultimă generaţie - multe sunt operaţiuni administrative (plăţi, rezervări călătorii etc.) - dar altele, militare, merită studii specializate şi finanţare dedicată. Acestea includ identificarea obiectelor neidentificate care se apropie de spaţiul aerian al SUA, roboţi capabili să navigheze pe câmpul de luptă sau instrumente care să integreze şi să prioritizeze fluxuri disparate de informaţii de intelligence.

Inteligenţa artificială oferă oportunităţi importante pentru securitate, dar şi riscuri pe măsură. Pentagonul trebuie să găsească un echilibru între inovare rapidă şi control riguros: să dezvolte instrumente compatibile cu operaţiunile militare, să protejeze informaţiile sensibile şi să reducă riscul ca AI-ul să amplifice predispoziţii umane către escaladare. Fără astfel de măsuri, tehnologiile menite să apere pot, paradoxal, să genereze noi ameninţări, conchide Politico.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE