Experții avertizează: 5 lucruri pe care nu trebuie să le împărtășiți niciodată cu ChatGPT. Ce pași să urmați dacă deja le-ați partajat

Postat la: 13.12.2025 | Scris de: ZIUA NEWS

Experții avertizează: 5 lucruri pe care nu trebuie să le împărtășiți niciodată cu ChatGPT. Ce pași să urmați dacă deja le-ați partajat

Tot mai mulți oameni folosesc ChatGPT și alte chatbot-uri AI precum Gemini, Copilot și Claude în viața de zi cu zi. Un sondaj recent al Centrului „Imagining the Digital Future" de la Elon University a arătat că jumătate dintre americani utilizează acum aceste tehnologii.

„Adoptarea și utilizarea modelelor lingvistice mari (LLM) este uluitoare", a declarat Lee Rainie, directorul centrului, într-un comunicat al universității. „Sunt impresionat mai ales de modul în care aceste instrumente devin parte din viața socială a oamenilor."

Deși aceste instrumente pot fi utile pentru a scrie un e-mail sau a pregăti întrebări pentru o consultație medicală, este înțelept să fii precaut cu privire la informațiile pe care le împărtășești.

Un studiu recent de la Stanford Institute for Human-Centered AI arată că toate cele șase mari sisteme AI analizate (ChatGPT, Gemini, Claude, Nova, MetaAI și Copilot) folosesc conversațiile utilizatorilor pentru „antrenarea și îmbunătățirea modelelor" și că „unele păstrează aceste date pe termen nelimitat."

George Kamide, expert în securitate cibernetică, explică: „Mulți utilizatori subestimează cât de mult din ceea ce partajează cu un chatbot AI poate fi stocat, analizat și reutilizat. Conversațiile pot contribui direct sau indirect la comportamentul viitor al modelului. Dacă acestea conțin date personale, sensibile sau confidențiale, pot ajunge într-un set de date care nu mai este sub controlul utilizatorului. Datele reprezintă cea mai mare valoare pe care companiile AI o pot extrage de la noi."

Tipuri de informații pe care nu ar trebui să le partajezi

1. Informații personale identificabile (PII)
Nume, adresă, telefon, ID-uri guvernamentale (pașaport, permis de conducere).

Riscuri: furt de identitate, phishing, vânzare de date.

Fișierele încărcate împreună cu solicitările tale pot fi folosite pentru antrenarea modelului.

2. Detalii intime despre viața personală
Chatbot-ul oferă un sentiment fals de securitate care poate încuraja divulgarea informațiilor. Gândurile, comportamentele, starea mentală sau relațiile nu sunt protejate legal și pot fi folosite ca dovezi în instanță.

3. Informații medicale
1 din 6 adulți folosește chatbot-uri AI cel puțin o dată pe lună pentru informații medicale.

Riscuri: confidențialitate și acuratețe. Majoritatea chatbot-urilor nu respectă standardele legale de protecție a datelor medicale.

Evită să introduci detalii personale din fișele medicale.

4. Informații confidențiale de la serviciu
Nu introduce date interne, rapoarte, cod sursă sau informații protejate.

Chiar și o singură solicitare cu date sensibile poate constitui încălcare contractuală sau de reglementare.

5. Informații financiare
Salarii, conturi bancare, carduri, declarații fiscale.

Riscuri: șantaj, fraudă sau atacuri.

Ce să faci dacă ai partajat deja informații
Datele introduse în antrenamentul modelului nu pot fi retrase.

Șterge istoricul conversațiilor pentru a reduce riscul în caz de compromitere a contului.

Tratează conversațiile AI ca spații semi-publice, nu ca jurnale private.

Fii minimalist și deliberat în ce împărtășești: întreabă-te „M-aș simți bine dacă cineva ar vedea asta într-un chat de familie sau într-un chat profesional?"

Ajustează setările de confidențialitate: dezactivează istoricul conversațiilor sau optează să nu folosești datele pentru antrenarea modelului.

Folosește pseudonime și limbaj generalizat în solicitări pentru a proteja identitatea, scrie huffpost.com.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Experții avertizează: 5 lucruri pe care nu trebuie să le împărtășiți niciodată cu ChatGPT. Ce pași să urmați dacă deja le-ați partajat

Postat la: 13.12.2025 | Scris de: ZIUA NEWS

0

Tot mai mulți oameni folosesc ChatGPT și alte chatbot-uri AI precum Gemini, Copilot și Claude în viața de zi cu zi. Un sondaj recent al Centrului „Imagining the Digital Future" de la Elon University a arătat că jumătate dintre americani utilizează acum aceste tehnologii.

„Adoptarea și utilizarea modelelor lingvistice mari (LLM) este uluitoare", a declarat Lee Rainie, directorul centrului, într-un comunicat al universității. „Sunt impresionat mai ales de modul în care aceste instrumente devin parte din viața socială a oamenilor."

Deși aceste instrumente pot fi utile pentru a scrie un e-mail sau a pregăti întrebări pentru o consultație medicală, este înțelept să fii precaut cu privire la informațiile pe care le împărtășești.

Un studiu recent de la Stanford Institute for Human-Centered AI arată că toate cele șase mari sisteme AI analizate (ChatGPT, Gemini, Claude, Nova, MetaAI și Copilot) folosesc conversațiile utilizatorilor pentru „antrenarea și îmbunătățirea modelelor" și că „unele păstrează aceste date pe termen nelimitat."

George Kamide, expert în securitate cibernetică, explică: „Mulți utilizatori subestimează cât de mult din ceea ce partajează cu un chatbot AI poate fi stocat, analizat și reutilizat. Conversațiile pot contribui direct sau indirect la comportamentul viitor al modelului. Dacă acestea conțin date personale, sensibile sau confidențiale, pot ajunge într-un set de date care nu mai este sub controlul utilizatorului. Datele reprezintă cea mai mare valoare pe care companiile AI o pot extrage de la noi."

Tipuri de informații pe care nu ar trebui să le partajezi

1. Informații personale identificabile (PII)
Nume, adresă, telefon, ID-uri guvernamentale (pașaport, permis de conducere).

Riscuri: furt de identitate, phishing, vânzare de date.

Fișierele încărcate împreună cu solicitările tale pot fi folosite pentru antrenarea modelului.

2. Detalii intime despre viața personală
Chatbot-ul oferă un sentiment fals de securitate care poate încuraja divulgarea informațiilor. Gândurile, comportamentele, starea mentală sau relațiile nu sunt protejate legal și pot fi folosite ca dovezi în instanță.

3. Informații medicale
1 din 6 adulți folosește chatbot-uri AI cel puțin o dată pe lună pentru informații medicale.

Riscuri: confidențialitate și acuratețe. Majoritatea chatbot-urilor nu respectă standardele legale de protecție a datelor medicale.

Evită să introduci detalii personale din fișele medicale.

4. Informații confidențiale de la serviciu
Nu introduce date interne, rapoarte, cod sursă sau informații protejate.

Chiar și o singură solicitare cu date sensibile poate constitui încălcare contractuală sau de reglementare.

5. Informații financiare
Salarii, conturi bancare, carduri, declarații fiscale.

Riscuri: șantaj, fraudă sau atacuri.

Ce să faci dacă ai partajat deja informații
Datele introduse în antrenamentul modelului nu pot fi retrase.

Șterge istoricul conversațiilor pentru a reduce riscul în caz de compromitere a contului.

Tratează conversațiile AI ca spații semi-publice, nu ca jurnale private.

Fii minimalist și deliberat în ce împărtășești: întreabă-te „M-aș simți bine dacă cineva ar vedea asta într-un chat de familie sau într-un chat profesional?"

Ajustează setările de confidențialitate: dezactivează istoricul conversațiilor sau optează să nu folosești datele pentru antrenarea modelului.

Folosește pseudonime și limbaj generalizat în solicitări pentru a proteja identitatea, scrie huffpost.com.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE