Il Garante per la protezione dei dati personali ha disposto la limitazione del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense fondata da Elon Musk e Sam Altman che gestisce Chat GPT. L’applicazione, il cui nome è l’abbreviazione di Generative Pretrained Transformer, è un software in grado di utilizzare il linguaggio naturale per generare risposte pertinenti, e in tutto simili a quelle umane, in una ampia varietà di contesti. Sarebbe quindi impiegabile soprattutto in settori come il servizio clienti o le traduzioni linguistiche. L’autorità ha aperto un’istruttoria in quanto lo scorso 20 marzo la piattaforma aveva subito una perdita di dati, compresi quelli sulle informazioni relative al pagamento degli abbonati per alcuni servizi acquistabili. A giustificare il blocco vi sarebbe anche l’assenza di qualsiasi sistema di verifica dell’età degli utenti con i rischi connessi all’uso della piattaforma da parte di minori, soprattutto bambini, e la mancanza di una informativa sulla privacy per gli utenti. Ma oltre a questi motivi, a pesare nella decisione del Garante è soprattutto l’assenza di una base giuridica che giustifichi la straordinaria raccolta di informazioni personali volta ad addestrare gli algoritmi per il funzionamento del software. La privacy è in effetti la questione alla base delle sanzioni che, fra le piattaforme artificiali, anche Meta ha ricevuto recentemente a livello europeo. In quel caso però ad essere sotto accusa era solo l’obbligo per gli utenti di accettare annunci pubblicitari personalizzati e la vicenda non presentava i risvolti drammatici che l’intelligenza artificiale per sua natura comporta.
Il blocco a Chat GPT è in ogni caso temporaneo e per il ripristino della piattaforma Open AI dovrà comunicare entro 20 giorni le misure intraprese per attuare quanto richiesto dal Garante. Se ciò non dovesse avvenire entro tale termine la società rischierebbe una sanzione di 20 milioni di euro o fino al 4% del fatturato annuo.
La decisione inoltre è stata presa nel momento in cui l’ autorità europea Europol ha allertato le autorità nazionali in merito al fatto che dei criminali intendevano utilizzare l’applicazione per commettere una serie di crimini informatici. È curioso come il blocco a livello nazionale e su indicazione europea sia stato deciso immediatamente dopo l’appello di Elon Musk a porre un freno all’intelligenza artificiale che costituirebbe un “rischio per l’umanità”. È comunque indubbio che l’intelligenza artificiale costituisca almeno per il momento più un rischio che un’opportunità soprattutto nelle scuole dove il rapporto studente-insegnante rischia di essere messo ulteriormente in crisi.
Francesca Luchini
Lascia un commento