Cercetătorii au creat inteligența artificială "obraznică": de ce este mult mai eficientă decât cea "politicoasă"

Postat la: 06.03.2026 | Scris de: ZIUA NEWS

Cercetătorii au creat inteligența artificială

În încercarea de a face inteligența artificială mai eficientă, cercetătorii au renunțat la politețea excesivă și au învățat-o să întrerupă, să ezite și să tacă, exact cum ar face un om.

Rezultatele studiului realizat de o echipă din Tokyo arată că agenții AI cu personalități distincte și libertate de intervenie ajung mai des la răspunsuri corecte decât predecesorii lor strict ordonați. Se pare că haosul controlat al conversațiilor reale este cheia către o colaborare mai inteligentă între mașini.

O descoperire recentă în domeniul inteligenței artificiale reconsideră însăși natura interacțiunii dintre mașini. Cercetătorii au observat că, atunci când un sistem AI primește libertatea de a întrerupe, de a ezita sau de a alege să tacă atunci când nu are nimic relevant de adăugat, devine un partener de discuție mai eficient și ajunge mai des la soluții corecte. Altfel spus, cu cât AI-ul seamănă mai mult cu un om în imperfecțiunile sale conversaționale, cu atât performează mai bine.

În viața cotidiană, dialogul dintre oameni nu urmează un tipar rigid. Ritmul este neregulat: vorbitorii se întrerup reciproc, lasă pauze, revin asupra unor idei sau pur și simplu tac atunci când nu au ce spune.

Până acum, modelele de inteligență artificială funcționau după un cu totul alt principiu: primeau o solicitare, procesau informația, livrau un răspuns complet și apoi așteptau pasiv următoarea comandă. Acest tipar ordonat și previzibil, deși eficient din punct de vedere tehnic, lipsește de naturalețe interacțiunea.

„Sistemele multi-agent actuale par adesea artificiale deoarece le lipsesc dinamica dezordonată și în timp real a conversațiilor umane", explică Yuichi Sei, profesor la University of Electro-Communications din Tokyo, coordonatorul studiului. Cercetătorul și echipa sa și-au propus să exploreze dacă introducerea unor elemente sociale specifice oamenilor - cum ar fi posibilitatea de a interveni sau de a tăcea - ar putea îmbunătăți capacitatea de colaborare a agenților artificiali.

Pentru a da viață acestui experiment, echipa condusă de Sei a conceput un cadru inovator în care modelele lingvistice nu mai erau constrânse de regula rigidă „vorbești doar când îți vine rândul". Fiecărui agent artificial i s-a atribuit o personalitate distinctă, construită pe baza modelului psihologic Big Five - care include dimensiuni precum deschiderea, conștiinciozitatea, extraversiunea, agreabilitatea și nevrotismul. Aceste trăsături influențau decisiv modul în care fiecare agent alegea să intervină în discuție sau, dimpotrivă, să rămână tăcut.

Mai mult, cercetătorii au schimbat însuși mecanismul de generare a răspunsurilor. În loc să producă dintr-odată un mesaj complet și bine structurat, modelele generau replicile propoziție cu propoziție. Această tehnică le permitea să își ajusteze contribuțiile în timp real, în funcție de direcția în care evolua conversația.

Pentru a măsura impactul acestor modificări, specialiștii au testat trei scenarii diferite de dialog între agenți: o ordine fixă de vorbire (modelul clasic, politicos), o ordine dinamică (în care succesiunea vorbitorilor se putea schimba) și o ordine dinamică în care întreruperile erau permise în mod explicit. În această ultimă variantă, sistemul calcula permanent un „scor de urgență": dacă un agent detecta o eroare importantă sau un punct esențial care risca să fie omis, scorul creștea și îi oferea dreptul de a interveni imediat, indiferent de ordinea stabilită. Dimpotrivă, dacă scorul rămânea scăzut, agentul interpreta că nu are nimic valoros de adăugat și alegea în mod activ tăcerea, reducând astfel „zgomotul" conversațional inutil.

Evaluarea performanțelor a fost realizată pe un set impresionant de 1.000 de întrebări extrase din testul Massive Multitask Language Understanding, un reper cunoscut în domeniu care acoperă domenii variate, de la științe exacte până la discipline umaniste. Rezultatele au fost edificatoare și au confirmat ipoteza cercetătorilor.

În scenariul în care un agent oferea inițial un răspuns greșit, acuratețea finală a întregului grup a fost de 68,7% în varianta cu ordine fixă, de 73,8% în cea cu ordine dinamică și a urcat la 79,2% atunci când întreruperile erau permise. Diferențele au fost și mai evidente într-o situație dificilă, în care doi agenți porneau de la răspunsuri eronate: acuratețea a atins 37,2% pentru ordinea fixă, 43,7% pentru cea dinamică și 49,5% în scenariul care permitea întreruperi.

Concluzia specialiștilor este clară: atunci când primesc o „personalitate" și libertatea de a gestiona în mod natural ritmul conversației, agenții artificiali colaborează mai bine și își corectează mai eficient greșelile comune. Performanța lor depășește astfel rezultatele chatboților tradiționali, ancorați în tipare rigide de politețe conversațională.

Echipa de cercetare plănuiește deja următorii pași, dorind să aplice această abordare în domenii care necesită colaborare creativă, pentru a observa mai îndeaproape modul în care personalitățile digitale influențează deciziile colective. „În viitor, agenții AI vor interacționa tot mai mult între ei și cu oamenii, în contexte colaborative. Rezultatele noastre sugerează că discuțiile modelate de personalitate, inclusiv posibilitatea de a întrerupe atunci când este necesar, pot duce uneori la rezultate mai bune decât schimburile strict ordonate și excesiv de politicoase", încheie Yuichi Sei.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Cercetătorii au creat inteligența artificială "obraznică": de ce este mult mai eficientă decât cea "politicoasă"

Postat la: 06.03.2026 | Scris de: ZIUA NEWS

0

În încercarea de a face inteligența artificială mai eficientă, cercetătorii au renunțat la politețea excesivă și au învățat-o să întrerupă, să ezite și să tacă, exact cum ar face un om.

Rezultatele studiului realizat de o echipă din Tokyo arată că agenții AI cu personalități distincte și libertate de intervenie ajung mai des la răspunsuri corecte decât predecesorii lor strict ordonați. Se pare că haosul controlat al conversațiilor reale este cheia către o colaborare mai inteligentă între mașini.

O descoperire recentă în domeniul inteligenței artificiale reconsideră însăși natura interacțiunii dintre mașini. Cercetătorii au observat că, atunci când un sistem AI primește libertatea de a întrerupe, de a ezita sau de a alege să tacă atunci când nu are nimic relevant de adăugat, devine un partener de discuție mai eficient și ajunge mai des la soluții corecte. Altfel spus, cu cât AI-ul seamănă mai mult cu un om în imperfecțiunile sale conversaționale, cu atât performează mai bine.

În viața cotidiană, dialogul dintre oameni nu urmează un tipar rigid. Ritmul este neregulat: vorbitorii se întrerup reciproc, lasă pauze, revin asupra unor idei sau pur și simplu tac atunci când nu au ce spune.

Până acum, modelele de inteligență artificială funcționau după un cu totul alt principiu: primeau o solicitare, procesau informația, livrau un răspuns complet și apoi așteptau pasiv următoarea comandă. Acest tipar ordonat și previzibil, deși eficient din punct de vedere tehnic, lipsește de naturalețe interacțiunea.

„Sistemele multi-agent actuale par adesea artificiale deoarece le lipsesc dinamica dezordonată și în timp real a conversațiilor umane", explică Yuichi Sei, profesor la University of Electro-Communications din Tokyo, coordonatorul studiului. Cercetătorul și echipa sa și-au propus să exploreze dacă introducerea unor elemente sociale specifice oamenilor - cum ar fi posibilitatea de a interveni sau de a tăcea - ar putea îmbunătăți capacitatea de colaborare a agenților artificiali.

Pentru a da viață acestui experiment, echipa condusă de Sei a conceput un cadru inovator în care modelele lingvistice nu mai erau constrânse de regula rigidă „vorbești doar când îți vine rândul". Fiecărui agent artificial i s-a atribuit o personalitate distinctă, construită pe baza modelului psihologic Big Five - care include dimensiuni precum deschiderea, conștiinciozitatea, extraversiunea, agreabilitatea și nevrotismul. Aceste trăsături influențau decisiv modul în care fiecare agent alegea să intervină în discuție sau, dimpotrivă, să rămână tăcut.

Mai mult, cercetătorii au schimbat însuși mecanismul de generare a răspunsurilor. În loc să producă dintr-odată un mesaj complet și bine structurat, modelele generau replicile propoziție cu propoziție. Această tehnică le permitea să își ajusteze contribuțiile în timp real, în funcție de direcția în care evolua conversația.

Pentru a măsura impactul acestor modificări, specialiștii au testat trei scenarii diferite de dialog între agenți: o ordine fixă de vorbire (modelul clasic, politicos), o ordine dinamică (în care succesiunea vorbitorilor se putea schimba) și o ordine dinamică în care întreruperile erau permise în mod explicit. În această ultimă variantă, sistemul calcula permanent un „scor de urgență": dacă un agent detecta o eroare importantă sau un punct esențial care risca să fie omis, scorul creștea și îi oferea dreptul de a interveni imediat, indiferent de ordinea stabilită. Dimpotrivă, dacă scorul rămânea scăzut, agentul interpreta că nu are nimic valoros de adăugat și alegea în mod activ tăcerea, reducând astfel „zgomotul" conversațional inutil.

Evaluarea performanțelor a fost realizată pe un set impresionant de 1.000 de întrebări extrase din testul Massive Multitask Language Understanding, un reper cunoscut în domeniu care acoperă domenii variate, de la științe exacte până la discipline umaniste. Rezultatele au fost edificatoare și au confirmat ipoteza cercetătorilor.

În scenariul în care un agent oferea inițial un răspuns greșit, acuratețea finală a întregului grup a fost de 68,7% în varianta cu ordine fixă, de 73,8% în cea cu ordine dinamică și a urcat la 79,2% atunci când întreruperile erau permise. Diferențele au fost și mai evidente într-o situație dificilă, în care doi agenți porneau de la răspunsuri eronate: acuratețea a atins 37,2% pentru ordinea fixă, 43,7% pentru cea dinamică și 49,5% în scenariul care permitea întreruperi.

Concluzia specialiștilor este clară: atunci când primesc o „personalitate" și libertatea de a gestiona în mod natural ritmul conversației, agenții artificiali colaborează mai bine și își corectează mai eficient greșelile comune. Performanța lor depășește astfel rezultatele chatboților tradiționali, ancorați în tipare rigide de politețe conversațională.

Echipa de cercetare plănuiește deja următorii pași, dorind să aplice această abordare în domenii care necesită colaborare creativă, pentru a observa mai îndeaproape modul în care personalitățile digitale influențează deciziile colective. „În viitor, agenții AI vor interacționa tot mai mult între ei și cu oamenii, în contexte colaborative. Rezultatele noastre sugerează că discuțiile modelate de personalitate, inclusiv posibilitatea de a întrerupe atunci când este necesar, pot duce uneori la rezultate mai bune decât schimburile strict ordonate și excesiv de politicoase", încheie Yuichi Sei.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE