ChatGPT è un’intelligenza artificiale (IA) conversazionale sviluppata da OpenAI. Si tratta di un modello linguistico di grandi dimensioni (LLM) addestrato su un enorme dataset di testo e codice. ChatGPT è in grado di generare testo, tradurre lingue, scrivere diversi tipi di contenuti creativi e rispondere alle domande in modo informativo.

L’uso di ChatGPT comporta una serie di rischi per la privacy degli utenti. Questi rischi sono legati alla raccolta e all’utilizzo dei dati personali degli utenti, alla possibilità di profilazione indesiderata e all’utilizzo malevolo del modello.

Ma come funziona ChatGPT? ChatGPT viene addestrato su un enorme dataset di testo e codice che include anche dati personali degli utenti. Questi dati possono includere informazioni come nomi, indirizzi e-mail, numeri di telefono, preferenze personali, ecc.

chat gpt

La Gestione dei Dati Personali in ChatGPT: Tra Anonimizzazione e Possibili Rischi

OpenAI ha affermato che i dati personali degli utenti vengono anonimizzati prima dell’addestramento di ChatGPT. 

Tuttavia, è possibile che alcuni dati personali possano essere recuperati dal modello. Ad esempio, se ChatGPT genera un testo che include un nome o un indirizzo e-mail, è possibile che questi dati possano essere ricondotti a una persona specifica. 

Inoltre, ChatGPT può essere utilizzato per raccogliere dati personali degli utenti in modo attivo. Ad esempio, il modello può essere utilizzato per generare contenuti personalizzati per gli utenti, che potrebbero includere informazioni personali. 

Ci sono molte ragioni per evitare che le proprie informazioni personali finiscano nelle mani di OpenAI, tra cui la possibilità che l’intelligenza artificiale possa generare contenuti dannosi per la reputazione degli utenti, sostituendoli nei lavori di scrittura o utilizzando i loro dati senza un regolamento chiaro. 

Un esempio di come i dati personali vengano raccolti senza in modo indiscriminato, viene dall’America, dove un’artista digitale di San Francisco ha affermato di aver trovato foto di se stessa nel set di dati LAION, nonostante fossero state scattate da un medico e le fosse espressamente vietato condividere le immagini in qualsiasi luogo.

Rischi di Privacy: Profili Utente e Dati Personalizzati con ChatGPT

I dati personali raccolti da ChatGPT possono essere utilizzati per creare profili dettagliati degli utenti. Questi profili possono essere utilizzati per scopi di marketing, sorveglianza o altro.

Ad esempio, un’azienda potrebbe utilizzare ChatGPT per generare contenuti personalizzati per i propri clienti. Questi contenuti potrebbero includere informazioni sui prodotti o servizi che l’azienda sta pubblicizzando.

Martin Vechev, il professore di informatica al Politecnico di Zurigo in Svizzera, ha spiegato che i modelli linguistici di ampia portata (LLM), che alimentano i chatbot più sofisticati, sono in grado di dedurre in modo accurato una quantità preoccupante di informazioni personali sugli utenti. Queste informazioni comprendono etnia, posizione, occupazione e altro, e vengono estratte da conversazioni apparentemente innocue. Anche se alcune aziende che sviluppano tali sistemi cercano di eliminare le informazioni personali durante il processo di addestramento o di impedire ai modelli di includerle nei risultati, Vechev sottolinea che la capacità intrinseca degli LLM di dedurre dati personali è cruciale per il loro funzionamento. Questa capacità si basa su correlazioni statistiche, un aspetto che rende particolarmente complesso risolvere il problema.
Inoltre, secondo quanto afferma Vechev, truffatori potrebbero sfruttare la capacità dei chatbot per raccogliere dati da utenti inconsapevoli. Il professore aggiunge che questo fenomeno potrebbe anticipare l’avvento di una nuova era pubblicitaria, dove le aziende utilizzano le informazioni acquisite dai chatbot per creare profili dettagliati degli utenti. In alcuni casi, le stesse società dietro ai potenti chatbot basano significativamente i loro guadagni sulla pubblicità: “Potrebbe essere già in corso”, osserva Vechev.

Minacce di Deepfake: Il Lato Oscuro di ChatGPT

I problemi che ChatGPT porta con sé, possono essere anche di natura malevole, come la diffusione di disinformazione o la creazione di deepfake.

Ad esempio, un’organizzazione potrebbe utilizzare ChatGPT per generare disinformazione che è mirata a danneggiare un’altra organizzazione o un individuo.

Un individuo potrebbe utilizzare ChatGPT per creare deepfake che sono utilizzati per danneggiare la reputazione di un’altra persona. 

Come? ChatGPT è stato presentato come un chatbot con un’interfaccia testuale, ma grazie a fasi aggiuntive in una pipeline di dati, può essere impiegato per generare output audio e video. Attraverso il processo di apprendimento dell’aspetto o del modo di parlare di una persona tramite immagini, video o suoni in ingresso, questa tecnologia AI è in grado di creare un audio credibile della voce di una persona e/o immagini animate (come ad esempio nei video di Zoom), seguendo uno script mai eseguito dalla persona reale. Tali Deep Fake possono essere sfruttati per attività fraudolente, furti, inganni, impersonificazioni, campagne diffamatorie, attacchi al marchio e molte altre azioni malintenzionate.

Regolamentazione Globale: Le Azioni dei Governi contro i Rischi per la Privacy di ChatGPT

I governi di tutto il mondo stanno prendendo atto dei rischi per la privacy associati a ChatGPT.

Nel marzo 2023, l’Autorità Garante per la Protezione dei Dati Personali (AGPD) italiana ha imposto ad OpenAI di limitare il trattamento dei dati personali degli utenti italiani con ChatGPT. Tale limitazione si è tradotta in una sospensione del servizio (anche di quello pagamento) nel nostro Paese.

Il governo degli Stati Uniti sta valutando di adottare una serie di misure per regolamentare l’uso di ChatGPT. Queste misure potrebbero includere l’obbligo per gli sviluppatori di ChatGPT di adottare misure per proteggere la privacy degli utenti e la limitazione dell’uso di ChatGPT per scopi malevoli.
E proprio di fronte a questa esigenza di regolamentare questa tecnologia, “siamo arrivati in europa all’ultima tappa di un percorso iniziato ad aprile 2021 con la proposta della Commissione, seguita dalle posizioni di Consiglio e Parlamento. Lo scorso dicembre è arrivato l’accordo politico provvisorio e nelle scorse settimane il testo è stato rifinito per percorrere l’ultimo miglio”: il testo definitivo dell’AI Act, il regolamento europeo sull’intelligenza artificiale, è stato ultimato a un mese dall’accordo politico iniziale. Questa è la prima legge al mondo che affronta in modo completo lo sviluppo della tecnologia AI. Il testo, composto da 85 articoli e nove allegati, si concentra su una categorizzazione dei rischi in quattro livelli: minimi, limitati, alti e inaccettabili. Le responsabilità e le restrizioni aumentano proporzionalmente al livello di rischio. Il divieto di determinati utilizzi, come l’uso di tecnologie subliminali o la pesca a strascico di volti da internet, è chiaramente delineato. Il riconoscimento facciale in tempo reale è generalmente vietato, tranne in tre situazioni specifiche annunciate a dicembre: ricerca di vittime di reati, minacce alla vita o alla sicurezza, e identificazione di presunti autori di gravi reati. La regolamentazione impone controlli rigorosi per sistemi AI ad alto rischio, con obblighi sulla sicurezza informatica, trasparenza e documentazione tecnica. La Commissione europea si doterà di un Consiglio dell’AI per assistere nell’implementazione del regolamento. In caso di violazioni, le multe possono arrivare fino a 35 milioni di euro o il 7% del fatturato globale. La votazione finale sull’AI Act è imminente.

Affrontare i Rischi di Privacy in ChatGPT: Trasparenza, Sicurezza e Regolamentazione

Esistono una serie di possibili soluzioni ai rischi per la privacy associati a ChatGPT.

  • Migliorare la trasparenza

OpenAI dovrebbe migliorare la trasparenza sull’uso dei dati personali degli utenti. L’azienda dovrebbe divulgare maggiori informazioni sui dati che vengono raccolti, su come vengono utilizzati e su come vengono protetti.

  • Migliorare la sicurezza

OpenAI dovrebbe migliorare la sicurezza di ChatGPT per ridurre il rischio di recupero di dati personali. L’azienda dovrebbe adottare misure per rendere più difficile per gli utenti recuperare dati personali dal modello.

  • Regolamentazione

I governi dovrebbero adottare misure per regolamentare l’uso di ChatGPT. Queste misure dovrebbero garantire che gli sviluppatori di ChatGPT adottino misure per proteggere la privacy degli utenti e che l’uso di ChatGPT sia limitato a scopi legittimi.

Conclusione

In sintesi, ChatGPT emerge come una potente intelligenza artificiale conversazionale, dotata di notevoli capacità linguistiche, tra cui la generazione di testo, la traduzione delle lingue e la risposta informativa. Tuttavia, l’impiego di questa tecnologia comporta rischi significativi per la privacy degli utenti, suscitando preoccupazioni relative alla raccolta e all’uso di dati personali.

Come sottolineato nel dibattito, ChatGPT viene addestrato su un vasto dataset che incorpora informazioni personali degli utenti, nonostante gli sforzi di anonimizzazione dichiarati da OpenAI. L’incertezza sulla possibilità di recuperare dati personali dal modello solleva legittime preoccupazioni sulla tutela della privacy. La complessità aumenta considerando la capacità innata dei modelli linguistici di dedurre con precisione informazioni personali, come evidenziato da Martin Vechev.

Le implicazioni sulla privacy culminano in possibili utilizzi malevoli, tra cui la creazione di profili dettagliati degli utenti per fini di marketing o sorveglianza, la diffusione di disinformazione e la manipolazione tramite deepfake. Questi rischi hanno attirato l’attenzione delle autorità di regolamentazione, con l’AGPD italiano che ha imposto restrizioni e il governo degli Stati Uniti che sta valutando misure per regolamentare l’uso di ChatGPT.

L’introduzione dell’AI Act europeo rappresenta un passo cruciale verso una regolamentazione più ampia dell’intelligenza artificiale, cercando di bilanciare l’innovazione con la tutela della privacy. Tuttavia, l’efficace attuazione di soluzioni richiede sforzi congiunti da parte di OpenAI per migliorare la trasparenza e la sicurezza di ChatGPT, insieme a un impegno attivo da parte dei governi per implementare regolamentazioni che garantiscano un utilizzo etico e sicuro della tecnologia.

In questo contesto, soluzioni come l’aumento della trasparenza, miglioramenti nella sicurezza di ChatGPT e l’implementazione di regolamentazioni governative sono suggerite per affrontare efficacemente i rischi associati alla privacy. Solo attraverso un approccio integrato di azioni, sia da parte dell’industria che delle autorità regolamentari, sarà possibile garantire un equilibrio appropriato tra l’innovazione tecnologica e la tutela della privacy degli utenti in un contesto sempre più complesso e dinamico.

 di Tommaso Lunardon

BIBLIOGRAFIA

https://openai.com/policies/privacy-policy

https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847

https://arstechnica.com/information-technology/2022/09/artist-finds-private-medical-record-photos-in-popular-ai-training-data-set/

https://www.wired.it/article/chatgpt-chatbot-intelligenza-artificiale-informazioni-personali/

https://www.repubblica.it/tecnologia/2024/01/24/news/cosa_prevede_lultima_versione_dellai_act-421967649/

https://www.wired.it/article/ai-act-testo-ultima-versione-gennaio-divieti-riconoscimento-facciale/

ChatGPT migliora la privacy, ma non basta: ecco perché

AUTORE

Sono Tommaso Lunardon, uno studente brillante del corso di laurea magistrale in Web Marketing e Digital Communication presso l’IUSVE, laureato in Psicologia dell’Educazione presso lo IUSVE. La sua passione per il mondo della psicologia ho deciso di collegarla un percorso che indirettamente la tocca e la approfondisce in altri ambiti, come quello della comunicazione. Come interessi principali trovo appunto la public relation, Human Resources, e temi inerenti all’intelligenza artificiale sopratutto al loro sviluppo e ai loro pro e contro.