Ce nu ar trebui să faci niciodată când folosești AI - Expert Google: "Chatbotul mi-a spus unde stau, fără ca eu să-i fi spus vreodată"

Postat la: 16.12.2025 | Scris de: ZIUA NEWS

Ce nu ar trebui să faci niciodată când folosești AI - Expert Google:

Harsh Varshney, expert în confidențialitate și securitate AI la Google, atrage atenția asupra riscurilor de confidențialitate asociate folosirii chatboților de Inteligență Artificială.

Varshney, un bărbat de 31 de ani din New York, se declară precaut atunci când împărtășește informații cu aplicațiile AI și recomandă tratarea acestora „ca și cum ar fi o carte poștală publică". Business Insider a publicat opiniile specialistului sub forma unui eseu, în care detaliază ce informații evită să ofere și ce obiceiuri a format pentru protejarea datelor sale personale.

"Inteligența Artificială a devenit rapid un partener tăcut în viața noastră de zi cu zi și nu-mi pot imagina viața fără instrumente AI. Zi de zi, mă ajută cu cercetări aprofundate, luarea de notițe, programare și căutări online. Dar slujba mea înseamnă că sunt foarte conștient de preocupările legate de confidențialitate asociate cu utilizarea Inteligenței Artificiale. Lucrez la Google din 2023 și am petrecut doi ani ca inginer software în echipa de confidențialitate, construind infrastructura pentru protejarea datelor de la utilizatori.

Apoi am trecut la echipa de securitate Chrome AI, unde ajut la securizarea (browserului) Google Chrome de amenințări precum hackerii și persoanele care utilizează agenți AI pentru a desfășura campanii de phishing (de inducere în eroare a utilizatorilor, pentru a-i determina să dezvăluie informații confidențiale, n.r.)

Modelele AI folosesc date pentru a genera răspunsuri utile, iar noi, utilizatorii, trebuie să ne protejăm informațiile private, astfel acestea să nu poată fi accesate de entitățile dăunătoare, cum ar fi infractorii cibernetici și brokerii de date. Iată patru obiceiuri pe care le-am format și pe care le consider esențiale pentru protejarea datelor mele în timp ce utilizez AI."

"Uneori, un fals sentiment de intimitate cu AI poate determina oamenii să partajeze online informații pe care în mod uzual nu le-ar face publice niciodată. Companiile AI pot avea angajați care lucrează la îmbunătățirea aspectelor de confidențialitate ale modelelor lor. Totuși, nu este recomandabil să partajați cu chatboții AI datele cardurilor dumneavoastră, CNP-ul, adresa de domiciliu, istoricul medical personal sau alte informații care permit identificarea dumneavoastră.

În funcție de versiunea aplicației, informațiile partajate cu chatboții AI publici pot fi folosite pentru a antrena modele viitoare, în ideea de a genera răspunsuri mai relevante. Acest lucru ar putea duce la așa-numitele "training leakage" sau "scurgeri date folosite pentru antrenament".

Concret, modelul antrenat poate să memoreze informații personale despre un utilizator pe care ulterior să le livreze în răspunsuri către alt utilizator. La "training leakage" se adaugă riscul general al încălcării confidențialității, care ar expune cele partajate cu un chatbot. Așa cum nu scriem informații sensibile pe o ilustrată pe care o expediem unui amic, tot la fel nu trebuie să încredințăm astfel de informații unui chatbot AI."

"Este important să știți dacă utilizați un instrument AI de nivel public sau unul de nivel "enterprise". Nu este sigur cum sunt utilizate conversațiile cu utilizatorii pentru antrenarea modelelor AI publice. Este cert, însă, că firmele pot plăti pentru modele AI "enterprise". Aceste modele nu sunt, de regulă, concepute pentru a se antrena pe baza conversațiilor cu utilizatorii.

Prin urmare, într-un astfel de mediu cu chatboți "enterprise" este mai sigur pentru angajați să vorbească despre munca lor și despre proiectele companiei. Spre comparație, gândiți-vă la o conversație într-o cafenea aglomerată, unde tot ce spuneți poate fi auzit, și apoi gândiți-vă că aceeași conversație poate avea loc și poate rămâne între pereții biroului dumneavoastră.

Se pare că au existat cazuri în care angajații au scurs accidental date ale companiei lor către ChatGPT. Dacă lucrați la proiecte nelansate sau încercați să obțineți un brevet, probabil că nu ați vrea să discutați planurile dumneavoastră cu un chatbot care nu este de nivel enterprise, dat fiind riscul de scurgere de informații.

Eu nu discut cu chatboți publici despre proiectele la care lucrez pentru Google. În schimb, folosesc un model enterprise, chiar și pentru sarcini minore, precum editarea unui e-mail de serviciu. Sunt mai liniștit să-mi împărtășesc astfel informațiile, deoarece conversațiile mele nu sunt folosite pentru instruire. Totuși, încerc să reduc informațiile personale pe care le partajez."

"Chatboții AI păstrează, de obicei, un istoric al conversațiilor tale. Îți recomand să îl ștergi în mod regulat, atât pe modelele enterprise, cât și pe cele publice, pentru a proteja confidențialitatea pe termen lung. Precauția este un obicei bun, chiar dacă sunteți încrezător că nu introduceți date private. Am fost surprins, la un moment dat, că un chatbot Gemini al unei companii a reușit să-mi spună adresa exactă, pe care nu-mi aminteam să o fi partajat.

S-a dovedit ulterior că rugasem acel chatbot să mă ajute să editez un e-mail care includea adresa mea. Întrucât chatboții au funcții de memorare pe termen lung, care le permit să-și amintească informații din conversațiile anterioare, acel chatbot a putut identifica și păstra adresa mea. Atunci când caut lucruri pe care nu vreau ca chatboții să le memoreze, folosesc un mod special, asemănător cu modul de navigare incognito pe internet.

ChatGPT de la OpenAI și Gemini de la Google au o astfel de funcție, numită "chat temporar" care, activată, nu permite stocarea istoricului și nici antrenarea modelelor."

"Este mai bine să utilizați instrumente AI cunoscute, pentru că este mai probabil ca acestea să aibă reguli clare de confidențialitate și alte bariere de siguranță. Pe lângă produsele Google, prefer să folosesc ChatGPT de la OpenAI și Claude de la Anthropic.

De asemenea, este util să revedeți politicile de confidențialitate ale oricăror instrumente pe care le utilizați. Uneori, acestea vă vor explica mai multe despre modul în care datele dumneavoastră sunt utilizate pentru a antrena modelul. În setările de confidențialitate, căutați o secțiune cu opțiunea "îmbunătățiți modelul pentru toată lumea".

Asigurându-vă că această setare este dezactivată, împiedicați utilizarea conversațiilor dumneavoastră pentru antrenament. Tehnologia IA este incredibil de puternică, dar trebuie să fim precauți pentru a ne asigura că datele și identitățile noastre sunt în siguranță atunci când o folosim."

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Ce nu ar trebui să faci niciodată când folosești AI - Expert Google: "Chatbotul mi-a spus unde stau, fără ca eu să-i fi spus vreodată"

Postat la: 16.12.2025 | Scris de: ZIUA NEWS

0

Harsh Varshney, expert în confidențialitate și securitate AI la Google, atrage atenția asupra riscurilor de confidențialitate asociate folosirii chatboților de Inteligență Artificială.

Varshney, un bărbat de 31 de ani din New York, se declară precaut atunci când împărtășește informații cu aplicațiile AI și recomandă tratarea acestora „ca și cum ar fi o carte poștală publică". Business Insider a publicat opiniile specialistului sub forma unui eseu, în care detaliază ce informații evită să ofere și ce obiceiuri a format pentru protejarea datelor sale personale.

"Inteligența Artificială a devenit rapid un partener tăcut în viața noastră de zi cu zi și nu-mi pot imagina viața fără instrumente AI. Zi de zi, mă ajută cu cercetări aprofundate, luarea de notițe, programare și căutări online. Dar slujba mea înseamnă că sunt foarte conștient de preocupările legate de confidențialitate asociate cu utilizarea Inteligenței Artificiale. Lucrez la Google din 2023 și am petrecut doi ani ca inginer software în echipa de confidențialitate, construind infrastructura pentru protejarea datelor de la utilizatori.

Apoi am trecut la echipa de securitate Chrome AI, unde ajut la securizarea (browserului) Google Chrome de amenințări precum hackerii și persoanele care utilizează agenți AI pentru a desfășura campanii de phishing (de inducere în eroare a utilizatorilor, pentru a-i determina să dezvăluie informații confidențiale, n.r.)

Modelele AI folosesc date pentru a genera răspunsuri utile, iar noi, utilizatorii, trebuie să ne protejăm informațiile private, astfel acestea să nu poată fi accesate de entitățile dăunătoare, cum ar fi infractorii cibernetici și brokerii de date. Iată patru obiceiuri pe care le-am format și pe care le consider esențiale pentru protejarea datelor mele în timp ce utilizez AI."

"Uneori, un fals sentiment de intimitate cu AI poate determina oamenii să partajeze online informații pe care în mod uzual nu le-ar face publice niciodată. Companiile AI pot avea angajați care lucrează la îmbunătățirea aspectelor de confidențialitate ale modelelor lor. Totuși, nu este recomandabil să partajați cu chatboții AI datele cardurilor dumneavoastră, CNP-ul, adresa de domiciliu, istoricul medical personal sau alte informații care permit identificarea dumneavoastră.

În funcție de versiunea aplicației, informațiile partajate cu chatboții AI publici pot fi folosite pentru a antrena modele viitoare, în ideea de a genera răspunsuri mai relevante. Acest lucru ar putea duce la așa-numitele "training leakage" sau "scurgeri date folosite pentru antrenament".

Concret, modelul antrenat poate să memoreze informații personale despre un utilizator pe care ulterior să le livreze în răspunsuri către alt utilizator. La "training leakage" se adaugă riscul general al încălcării confidențialității, care ar expune cele partajate cu un chatbot. Așa cum nu scriem informații sensibile pe o ilustrată pe care o expediem unui amic, tot la fel nu trebuie să încredințăm astfel de informații unui chatbot AI."

"Este important să știți dacă utilizați un instrument AI de nivel public sau unul de nivel "enterprise". Nu este sigur cum sunt utilizate conversațiile cu utilizatorii pentru antrenarea modelelor AI publice. Este cert, însă, că firmele pot plăti pentru modele AI "enterprise". Aceste modele nu sunt, de regulă, concepute pentru a se antrena pe baza conversațiilor cu utilizatorii.

Prin urmare, într-un astfel de mediu cu chatboți "enterprise" este mai sigur pentru angajați să vorbească despre munca lor și despre proiectele companiei. Spre comparație, gândiți-vă la o conversație într-o cafenea aglomerată, unde tot ce spuneți poate fi auzit, și apoi gândiți-vă că aceeași conversație poate avea loc și poate rămâne între pereții biroului dumneavoastră.

Se pare că au existat cazuri în care angajații au scurs accidental date ale companiei lor către ChatGPT. Dacă lucrați la proiecte nelansate sau încercați să obțineți un brevet, probabil că nu ați vrea să discutați planurile dumneavoastră cu un chatbot care nu este de nivel enterprise, dat fiind riscul de scurgere de informații.

Eu nu discut cu chatboți publici despre proiectele la care lucrez pentru Google. În schimb, folosesc un model enterprise, chiar și pentru sarcini minore, precum editarea unui e-mail de serviciu. Sunt mai liniștit să-mi împărtășesc astfel informațiile, deoarece conversațiile mele nu sunt folosite pentru instruire. Totuși, încerc să reduc informațiile personale pe care le partajez."

"Chatboții AI păstrează, de obicei, un istoric al conversațiilor tale. Îți recomand să îl ștergi în mod regulat, atât pe modelele enterprise, cât și pe cele publice, pentru a proteja confidențialitatea pe termen lung. Precauția este un obicei bun, chiar dacă sunteți încrezător că nu introduceți date private. Am fost surprins, la un moment dat, că un chatbot Gemini al unei companii a reușit să-mi spună adresa exactă, pe care nu-mi aminteam să o fi partajat.

S-a dovedit ulterior că rugasem acel chatbot să mă ajute să editez un e-mail care includea adresa mea. Întrucât chatboții au funcții de memorare pe termen lung, care le permit să-și amintească informații din conversațiile anterioare, acel chatbot a putut identifica și păstra adresa mea. Atunci când caut lucruri pe care nu vreau ca chatboții să le memoreze, folosesc un mod special, asemănător cu modul de navigare incognito pe internet.

ChatGPT de la OpenAI și Gemini de la Google au o astfel de funcție, numită "chat temporar" care, activată, nu permite stocarea istoricului și nici antrenarea modelelor."

"Este mai bine să utilizați instrumente AI cunoscute, pentru că este mai probabil ca acestea să aibă reguli clare de confidențialitate și alte bariere de siguranță. Pe lângă produsele Google, prefer să folosesc ChatGPT de la OpenAI și Claude de la Anthropic.

De asemenea, este util să revedeți politicile de confidențialitate ale oricăror instrumente pe care le utilizați. Uneori, acestea vă vor explica mai multe despre modul în care datele dumneavoastră sunt utilizate pentru a antrena modelul. În setările de confidențialitate, căutați o secțiune cu opțiunea "îmbunătățiți modelul pentru toată lumea".

Asigurându-vă că această setare este dezactivată, împiedicați utilizarea conversațiilor dumneavoastră pentru antrenament. Tehnologia IA este incredibil de puternică, dar trebuie să fim precauți pentru a ne asigura că datele și identitățile noastre sunt în siguranță atunci când o folosim."

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE