“Chatgpt mi ha svuotato il portafogli”, ebbene se utilizzi questa parola resti senza una lira | Non c’è nulla che tu possa fare poi

Uomo disperato senza soldi (Depositphotos foto) - www.statodonna.it
Quando la confidenza con un chatbot supera il limite, anche una semplice parola può trasformarsi in un errore costoso.
Ormai parliamo con le intelligenze artificiali come se fossero amici di vecchia data. C’è chi ci chiede consigli di viaggio, chi affida loro dubbi esistenziali, chi racconta dettagli che… beh, forse nemmeno direbbe a un terapeuta. È facile dimenticare che, dietro a quelle risposte gentili, c’è un sistema che memorizza ogni parola.
Il punto è che questi strumenti sono stati creati per imparare da noi. Più chiacchieriamo con loro, più diventano “bravi” a rispondere. Ma c’è un piccolo problema: spesso, mentre ci godiamo questa comodità, non ci rendiamo conto di quanto stiamo dando in cambio. Spoiler: è molto più di quanto pensiamo.
Ci si lascia andare facilmente. Un momento stai chiedendo una ricetta per le uova, e quello dopo stai spiegando il motivo per cui hai dovuto cambiare il tuo piano di allenamento perché ti fa male la schiena. Magari racconti pure che tuo figlio si addormenta solo col biberon. E tutto questo rimane lì, salvato.
Ecco il nodo: ogni parola scritta in chat, ogni informazione condivisa, finisce in un’enorme memoria digitale. Non c’è una cassaforte inviolabile, anzi, spesso nemmeno ci accorgiamo di star lasciando le chiavi sotto lo zerbino.
Cosa può succedere davvero
Nel marzo 2023, un bug di ChatGPT ha permesso ad alcuni utenti di vedere frammenti delle conversazioni di altri. OpenAI ha corretto il problema, ma l’incidente dimostra che la sicurezza non è infallibile. In un altro caso, sono state inviate email di conferma dell’abbonamento agli utenti sbagliati, con tanto di nome, cognome, email e informazioni di pagamento.
Le conversazioni possono essere anche incluse in mandati giudiziari o finire in archivi violati da hacker. Ecco perché esperti come Jennifer King, dello Stanford Institute, consigliano cautela: una volta che scrivi qualcosa in chat, ne perdi il controllo. Ma cosa non si dovrebbe mai scrivere?

Le IA non dimenticano nulla
L’articolo del Washington Post racconta come, nel tempo, ChatGPT riesca a ricordare una quantità impressionante di dettagli personali: preferenze alimentari, informazioni familiari, problemi di salute. E questo vale per qualsiasi chatbot, non solo quello di OpenAI.
I ricercatori mettono in guardia: più informazioni condividi, maggiore è il rischio. Le aziende di intelligenza artificiale hanno bisogno di dati per migliorare i modelli, ma anche loro raccomandano di evitare contenuti sensibili. OpenAI avvisa chiaramente: «Per favore, non condividere informazioni personali». Anche Google, con Gemini, dice lo stesso. Qualsiasi parola che contenga informazioni personali e sensibili è potenzialmente pericolosa.