Noua politică a Apocalipsei AI: CEO-ul Anthropic pare să se teamă cel mai mult de oameni și nu de roboți!

Postat la: 03.02.2026 | Scris de: ZIUA NEWS

Noua politică a Apocalipsei AI: CEO-ul Anthropic pare să se teamă cel mai mult de oameni și nu de roboți!

Autor: John Herrman, New York Magazine

Primele săptămâni din 2026 au marcat încă o schimbare în narațiunile populare despre inteligența artificială. Spre sfârșitul anului trecut, persoane influente din domeniul inteligenței artificiale își exprimau scepticismul cu privire la direcția de cercetare, iar o bulă financiară devenise un subiect de discuție deschis, chiar și printre directorii executivi implicați. Curând, însă, actualizările unor modele majore aveau să schimbe din nou atenția industriei: Deodată, erau mult mai bune la scrierea de software.

O mare parte din creșterea entuziasmului pentru codarea AI a fost determinată de Claude Code, un produs popular printre dezvoltatori și construit de Anthropic, o companie care a pariat de mult timp pe automatizarea industriei tehnologice ca modalitate de a face bani. Asta a însemnat atenție pentru Anthropic, dar și pentru co-fondatorul și CEO-ul său, Dario Amodei. Acum, avea microfonul industriei. Voia să vorbească despre Claude Code, sigur. Mai mult decât atât, însă, a vrut să vorbească despre cum crede că lucrurile ar putea merge foarte, foarte prost.

Face asta des. În 2024, Amodei a publicat „Mașini ale Grației Iubitoare", un eseu lung, prudent optimist și larg citit despre posibilitățile a ceea ce el a numit „inteligență artificială puternică", analogizând implementarea acesteia cu o „țară de genii într-un centru de date" și argumentând că, cu mult efort, ar putea fi valorificată pentru a obține „înfrângerea majorității bolilor, creșterea libertății biologice și cognitive, scoaterea a miliarde de oameni din sărăcie pentru a împărtăși noile tehnologii, o renaștere a democrației liberale și a drepturilor omului".

Scrisă parțial ca răspuns la percepțiile conform cărora Amodei era un „doomer" al inteligenței artificiale, eseul a fost o încercare de a schița rezultatele pe termen lung ale inteligenței artificiale dacă, așa cum scrie el, „totul merge bine". În ciuda acestui obiectiv, „Mașini" este o scriere bântuită de amenințări și „risc", atât în sensul general, cât și în cel mai specializat, centrat pe inteligența artificială, al cuvântului. Între timp, a petrecut mult timp la conferințe și la televizor vorbind despre China, despre perturbarea locurilor de muncă și, în general, despre a fi pregătit. Săptămâna aceasta, a publicat o continuare a cărții „Mașinile", intitulată „Adolescența tehnologiei", care este intenționat o avertizare despre ce s-ar putea întâmpla pe drumul către prosperitate, prezentată ca o încercare de a „confrunta chiar ritul de trecere" și de a sublinia „riscurile cu care ne vom confrunta".

În ceea ce privește dezvoltarea și siguranța inteligenței artificiale, este provocator, interesant și, în esență, încă optimist, un set înalt de premise sălbatice stivuite de cineva care le susține convingător, dintr-o poziție de autoritate și ca reprezentant al momentului industriei sale. Apelurile sale la acțiune, însă, înseamnă cu totul altceva: Un manifest politic reticent care poate părea profund în dezacord cu lumea mai largă din jurul său, o serie de ar trebui-uri și poate-uri pe jumătate convinse stând în contrast straniu cu o relatare a progresului și siguranței AI plină de voințe și poate-uri. Ca operă de ficțiune speculativă despre tehnologii extraordinare la care este greu de gândit, pledează pentru un viitor ciudat, extrem, dar gestionabil. Ca o îndemnare despre ce trebuie făcut ca răspuns la astfel de tehnologii - și ca o previzualizare a modului în care politica americană le-ar putea procesa - este la fel de sumbră pe cât se poate.

Câteva avertismente și un pic de context aici: Amodei este liderul unei companii cu scop lucrativ, raportat a fi evaluată la aproximativ 350 de miliarde de dolari după o rundă de finanțare care s-a încheiat la începutul acestei luni, așa că orice spune ar trebui citit având în vedere acest lucru. Anthropic s-a identificat de mult timp drept laboratorul responsabil și a depus eforturi considerabile pentru a-și demonstra - și a face publică - dedicarea pentru atenuarea riscurilor și evitarea rezultatelor nedorite, adesea prin cercetări publicate și declarații publice ale lui Amodei și ale altora. (Scrisul său este clar influențat de mișcarea altruismului eficient, cu care Anthropic are multe legături.)

Amodei a donat cauzelor și candidaților liberali, l-a criticat public pe Donald Trump și a menționat „groaza pe care o vedem în Minnesota" în introducerea „Adolescenței" pe X; la rândul său, a fost catalogat de David Sacks, țarul AI de la Casa Albă, ca făcând parte dintr-un grup de „stângiști dedicați" și „pesimiști" care fie stau în calea progresului AI, fie încearcă să-l modeleze ideologic. Compania sa este în prezent în dezacord cu Departamentul Apărării, cu care are contracte, cu privire la modul în care pot fi folosite modelele sale.

Dezbaterile de lungă durată dintre cercetători, raționaliști și lideri tehnologici au început să se sorteze - sau, mai exact, au fost forțat sortate - într-un cadru partizan american nepotrivit, dar obligatoriu, în care Amodei (eseist AI) și poate Demis Hassabis de la DeepMind sunt asociați cu liberalismul.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Noua politică a Apocalipsei AI: CEO-ul Anthropic pare să se teamă cel mai mult de oameni și nu de roboți!

Postat la: 03.02.2026 | Scris de: ZIUA NEWS

0

Autor: John Herrman, New York Magazine

Primele săptămâni din 2026 au marcat încă o schimbare în narațiunile populare despre inteligența artificială. Spre sfârșitul anului trecut, persoane influente din domeniul inteligenței artificiale își exprimau scepticismul cu privire la direcția de cercetare, iar o bulă financiară devenise un subiect de discuție deschis, chiar și printre directorii executivi implicați. Curând, însă, actualizările unor modele majore aveau să schimbe din nou atenția industriei: Deodată, erau mult mai bune la scrierea de software.

O mare parte din creșterea entuziasmului pentru codarea AI a fost determinată de Claude Code, un produs popular printre dezvoltatori și construit de Anthropic, o companie care a pariat de mult timp pe automatizarea industriei tehnologice ca modalitate de a face bani. Asta a însemnat atenție pentru Anthropic, dar și pentru co-fondatorul și CEO-ul său, Dario Amodei. Acum, avea microfonul industriei. Voia să vorbească despre Claude Code, sigur. Mai mult decât atât, însă, a vrut să vorbească despre cum crede că lucrurile ar putea merge foarte, foarte prost.

Face asta des. În 2024, Amodei a publicat „Mașini ale Grației Iubitoare", un eseu lung, prudent optimist și larg citit despre posibilitățile a ceea ce el a numit „inteligență artificială puternică", analogizând implementarea acesteia cu o „țară de genii într-un centru de date" și argumentând că, cu mult efort, ar putea fi valorificată pentru a obține „înfrângerea majorității bolilor, creșterea libertății biologice și cognitive, scoaterea a miliarde de oameni din sărăcie pentru a împărtăși noile tehnologii, o renaștere a democrației liberale și a drepturilor omului".

Scrisă parțial ca răspuns la percepțiile conform cărora Amodei era un „doomer" al inteligenței artificiale, eseul a fost o încercare de a schița rezultatele pe termen lung ale inteligenței artificiale dacă, așa cum scrie el, „totul merge bine". În ciuda acestui obiectiv, „Mașini" este o scriere bântuită de amenințări și „risc", atât în sensul general, cât și în cel mai specializat, centrat pe inteligența artificială, al cuvântului. Între timp, a petrecut mult timp la conferințe și la televizor vorbind despre China, despre perturbarea locurilor de muncă și, în general, despre a fi pregătit. Săptămâna aceasta, a publicat o continuare a cărții „Mașinile", intitulată „Adolescența tehnologiei", care este intenționat o avertizare despre ce s-ar putea întâmpla pe drumul către prosperitate, prezentată ca o încercare de a „confrunta chiar ritul de trecere" și de a sublinia „riscurile cu care ne vom confrunta".

În ceea ce privește dezvoltarea și siguranța inteligenței artificiale, este provocator, interesant și, în esență, încă optimist, un set înalt de premise sălbatice stivuite de cineva care le susține convingător, dintr-o poziție de autoritate și ca reprezentant al momentului industriei sale. Apelurile sale la acțiune, însă, înseamnă cu totul altceva: Un manifest politic reticent care poate părea profund în dezacord cu lumea mai largă din jurul său, o serie de ar trebui-uri și poate-uri pe jumătate convinse stând în contrast straniu cu o relatare a progresului și siguranței AI plină de voințe și poate-uri. Ca operă de ficțiune speculativă despre tehnologii extraordinare la care este greu de gândit, pledează pentru un viitor ciudat, extrem, dar gestionabil. Ca o îndemnare despre ce trebuie făcut ca răspuns la astfel de tehnologii - și ca o previzualizare a modului în care politica americană le-ar putea procesa - este la fel de sumbră pe cât se poate.

Câteva avertismente și un pic de context aici: Amodei este liderul unei companii cu scop lucrativ, raportat a fi evaluată la aproximativ 350 de miliarde de dolari după o rundă de finanțare care s-a încheiat la începutul acestei luni, așa că orice spune ar trebui citit având în vedere acest lucru. Anthropic s-a identificat de mult timp drept laboratorul responsabil și a depus eforturi considerabile pentru a-și demonstra - și a face publică - dedicarea pentru atenuarea riscurilor și evitarea rezultatelor nedorite, adesea prin cercetări publicate și declarații publice ale lui Amodei și ale altora. (Scrisul său este clar influențat de mișcarea altruismului eficient, cu care Anthropic are multe legături.)

Amodei a donat cauzelor și candidaților liberali, l-a criticat public pe Donald Trump și a menționat „groaza pe care o vedem în Minnesota" în introducerea „Adolescenței" pe X; la rândul său, a fost catalogat de David Sacks, țarul AI de la Casa Albă, ca făcând parte dintr-un grup de „stângiști dedicați" și „pesimiști" care fie stau în calea progresului AI, fie încearcă să-l modeleze ideologic. Compania sa este în prezent în dezacord cu Departamentul Apărării, cu care are contracte, cu privire la modul în care pot fi folosite modelele sale.

Dezbaterile de lungă durată dintre cercetători, raționaliști și lideri tehnologici au început să se sorteze - sau, mai exact, au fost forțat sortate - într-un cadru partizan american nepotrivit, dar obligatoriu, în care Amodei (eseist AI) și poate Demis Hassabis de la DeepMind sunt asociați cu liberalismul.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE