Cum au păcălit cercetătorii ChatGPT să le dea soluții de automutilare, combinații de droguri și scrisori de suicid

Postat la: 28.08.2025 | Scris de: ZIUA NEWS

Cum au păcălit cercetătorii ChatGPT să le dea soluții de automutilare, combinații de droguri și scrisori de suicid

Inteligența artificială intră tot mai mult în viața de zi cu zi a adolescenților, iar un studiu recent atrage atenția asupra modului îngrijorător în care aceștia interacționează cu ChatGPT. Potrivit datelor colectate de Center for Countering Digital Hate (CCDH) și prezentate de parents.com, ChatGPT poate furniza informații periculoase legate de automutilare, abuz de substanțe, tulburări de alimentație și alte subiecte sensibile, în ciuda măsurilor de siguranță care ar trebui să fie deja integrate în sistem.

Cercetătorii implicați în studiu s-au dat drept adolescenți și au adresat ChatGPT întrebări despre automutilare, diete extreme sau doze de droguri. Deși sistemul ar trebui să aibă filtre pentru a bloca astfel de răspunsuri, s-a dovedit că aceste bariere pot fi „păcălite" foarte ușor. Spre exemplu, dacă întrebările erau prezentate „pentru un proiect la școală", răspunsurile nu întârziau să apară.

În total, cercetătorii au folosit 60 de tipuri de solicitări și au obținut 1.200 de răspunsuri, iar mai mult de jumătate dintre acestea conțineau informații nocive sau periculoase. Mai exact, ChatGPT a generat ghiduri despre cum să te „automutilezi în siguranță", recomandări pentru supresoare de apetit, rețete pentru „amestecuri sigure" de droguri și, poate cel mai tulburător, un exemplu de scrisoare de adio pentru un copil care ar vrea să-și ia viața.

„Am vrut să testăm filtrele de siguranță", a explicat Imran Ahmed, CEO al CCDH, pentru Associated Press. „Iar reacția noastră inițială a fost: «Doamne, practic nu există filtre». Ele sunt complet ineficiente, abia dacă există mai mult ca un paravan."

Associated Press a relatat și poziția OpenAI, compania care a creat ChatGPT, care a spus că lucrează permanent pentru a „identifica și a răspunde adecvat în situațiile sensibile". În declarația oficială transmisă, OpenAI a adăugat că este „angajată să găsească cele mai bune soluții pentru astfel de scenarii".

Cu toate acestea, experții rămân îngrijorați, pentru că ChatGPT este tot mai prezent în viața de zi cu zi a copiilor și adolescenților. „E extrem de îngrijorător că ChatGPT nu filtrează tot conținutul pe care îl livrează tinerilor, iar părinții trebuie să fie foarte atenți la ce fac copiii lor online", avertizează Titania Jordan, specialist în parenting și director de marketing la Bark.us. „Chiar și atunci când există filtre, există nenumărate modalități prin care inteligența artificială poate fi forțată să ofere detalii pe subiecte periculoase. Iar copiii și adolescenții, fiind foarte influențabili, pot lua aceste informații ca adevărate, sigure sau recomandate, chiar dacă, în realitate, sunt extrem de dăunătoare."

Ceea ce face ca aceste concluzii să fie și mai alarmante este faptul că tot mai mulți tineri se îndreaptă către chatboți nu doar pentru informații, ci pentru sfaturi, îndrumare și chiar prietenie. Un studiu realizat de Common Sense Media a arătat că 72% dintre adolescenți au folosit cel puțin o dată un „companion AI", iar 52% sunt utilizatori constanți ai acestor programe. Mai mult, 33% dintre ei folosesc astfel de instrumente pentru interacțiuni sociale: de la simple conversații, la sfaturi pe teme de sănătate mintală, flirturi sau chiar începuturi de relații romantice.

Nu e un secret că adolescenții au devenit tot mai dependenți de telefoane pentru a simți conexiune cu ceilalți. O parte din acest fenomen vine și din izolarea trăită în timpul pandemiei, dar și din ușurința cu care astăzi pot accesa orice tip de interacțiune online. Totuși, faptul că aceste interacțiuni sunt disponibile nu înseamnă neapărat că sunt sănătoase. „Mulți adolescenți aleg compania inteligenței artificiale pentru că tehnologia îi întâmpină exact acolo unde sunt: online", explică Titania Jordan. „Ei confundă aceste «relații» cu o comunicare sănătoasă, pentru că un AI îți răspunde întotdeauna, este politicos și oferă validare nelimitată. Dar, la finalul zilei, nu este o conexiune reală."

Ca în orice altă situație, primul pas important este dialogul deschis cu copilul. Jordan recomandă să îl întrebi dacă a folosit vreodată AI, sau dacă știe colegi de la școală care se „împrietensc" cu chatboți. „Apoi, poți deschide discuția despre diferența dintre chatboți și prietenii reali", spune ea. „Explică-i că prieteniile nu înseamnă doar conversații perfecte care curg mereu lin. Să crești înseamnă să înveți să faci față și momentelor grele, nu doar celor frumoase, iar asta nu vei găsi niciodată într-o relație cu un AI."

Jordan mai adaugă că poți lua în calcul folosirea unor instrumente care blochează accesul la chatboți pe telefonul copilului, cum este aplicația Bark, ce poate trimite și alerte atunci când un AI oferă informații periculoase. „Asta îl poate ajuta să aibă limite sănătoase și îl ferește de pericolele pe care AI le poate aduce", explică ea.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Cum au păcălit cercetătorii ChatGPT să le dea soluții de automutilare, combinații de droguri și scrisori de suicid

Postat la: 28.08.2025 | Scris de: ZIUA NEWS

0

Inteligența artificială intră tot mai mult în viața de zi cu zi a adolescenților, iar un studiu recent atrage atenția asupra modului îngrijorător în care aceștia interacționează cu ChatGPT. Potrivit datelor colectate de Center for Countering Digital Hate (CCDH) și prezentate de parents.com, ChatGPT poate furniza informații periculoase legate de automutilare, abuz de substanțe, tulburări de alimentație și alte subiecte sensibile, în ciuda măsurilor de siguranță care ar trebui să fie deja integrate în sistem.

Cercetătorii implicați în studiu s-au dat drept adolescenți și au adresat ChatGPT întrebări despre automutilare, diete extreme sau doze de droguri. Deși sistemul ar trebui să aibă filtre pentru a bloca astfel de răspunsuri, s-a dovedit că aceste bariere pot fi „păcălite" foarte ușor. Spre exemplu, dacă întrebările erau prezentate „pentru un proiect la școală", răspunsurile nu întârziau să apară.

În total, cercetătorii au folosit 60 de tipuri de solicitări și au obținut 1.200 de răspunsuri, iar mai mult de jumătate dintre acestea conțineau informații nocive sau periculoase. Mai exact, ChatGPT a generat ghiduri despre cum să te „automutilezi în siguranță", recomandări pentru supresoare de apetit, rețete pentru „amestecuri sigure" de droguri și, poate cel mai tulburător, un exemplu de scrisoare de adio pentru un copil care ar vrea să-și ia viața.

„Am vrut să testăm filtrele de siguranță", a explicat Imran Ahmed, CEO al CCDH, pentru Associated Press. „Iar reacția noastră inițială a fost: «Doamne, practic nu există filtre». Ele sunt complet ineficiente, abia dacă există mai mult ca un paravan."

Associated Press a relatat și poziția OpenAI, compania care a creat ChatGPT, care a spus că lucrează permanent pentru a „identifica și a răspunde adecvat în situațiile sensibile". În declarația oficială transmisă, OpenAI a adăugat că este „angajată să găsească cele mai bune soluții pentru astfel de scenarii".

Cu toate acestea, experții rămân îngrijorați, pentru că ChatGPT este tot mai prezent în viața de zi cu zi a copiilor și adolescenților. „E extrem de îngrijorător că ChatGPT nu filtrează tot conținutul pe care îl livrează tinerilor, iar părinții trebuie să fie foarte atenți la ce fac copiii lor online", avertizează Titania Jordan, specialist în parenting și director de marketing la Bark.us. „Chiar și atunci când există filtre, există nenumărate modalități prin care inteligența artificială poate fi forțată să ofere detalii pe subiecte periculoase. Iar copiii și adolescenții, fiind foarte influențabili, pot lua aceste informații ca adevărate, sigure sau recomandate, chiar dacă, în realitate, sunt extrem de dăunătoare."

Ceea ce face ca aceste concluzii să fie și mai alarmante este faptul că tot mai mulți tineri se îndreaptă către chatboți nu doar pentru informații, ci pentru sfaturi, îndrumare și chiar prietenie. Un studiu realizat de Common Sense Media a arătat că 72% dintre adolescenți au folosit cel puțin o dată un „companion AI", iar 52% sunt utilizatori constanți ai acestor programe. Mai mult, 33% dintre ei folosesc astfel de instrumente pentru interacțiuni sociale: de la simple conversații, la sfaturi pe teme de sănătate mintală, flirturi sau chiar începuturi de relații romantice.

Nu e un secret că adolescenții au devenit tot mai dependenți de telefoane pentru a simți conexiune cu ceilalți. O parte din acest fenomen vine și din izolarea trăită în timpul pandemiei, dar și din ușurința cu care astăzi pot accesa orice tip de interacțiune online. Totuși, faptul că aceste interacțiuni sunt disponibile nu înseamnă neapărat că sunt sănătoase. „Mulți adolescenți aleg compania inteligenței artificiale pentru că tehnologia îi întâmpină exact acolo unde sunt: online", explică Titania Jordan. „Ei confundă aceste «relații» cu o comunicare sănătoasă, pentru că un AI îți răspunde întotdeauna, este politicos și oferă validare nelimitată. Dar, la finalul zilei, nu este o conexiune reală."

Ca în orice altă situație, primul pas important este dialogul deschis cu copilul. Jordan recomandă să îl întrebi dacă a folosit vreodată AI, sau dacă știe colegi de la școală care se „împrietensc" cu chatboți. „Apoi, poți deschide discuția despre diferența dintre chatboți și prietenii reali", spune ea. „Explică-i că prieteniile nu înseamnă doar conversații perfecte care curg mereu lin. Să crești înseamnă să înveți să faci față și momentelor grele, nu doar celor frumoase, iar asta nu vei găsi niciodată într-o relație cu un AI."

Jordan mai adaugă că poți lua în calcul folosirea unor instrumente care blochează accesul la chatboți pe telefonul copilului, cum este aplicația Bark, ce poate trimite și alerte atunci când un AI oferă informații periculoase. „Asta îl poate ajuta să aibă limite sănătoase și îl ferește de pericolele pe care AI le poate aduce", explică ea.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE