venerdì 31 marzo 2023
Intervento d’urgenza dell’Autorità per la protezione dei dati sensibili: «Manca un’informativa per gli utenti»
Il Garante boccia ChatGPT

Icp

COMMENTA E CONDIVIDI

L’altolà è arrivato sotto forma di un procedimento del Garante per la Privacy, registrato col numero «112 del 30 marzo 2023». La notizia, tuttavia, si è diffusa solo ieri mattina e ha immediatamente fatto rumore. In concreto, si legge in una nota, l’Autorità per la protezione dei dati personali ha disposto, con effetto immediato, la «limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI», la società statunitense che ha sviluppato e gestisce la piattaforma ChatGPT, software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane. Contestualmente il Garante ha «aperto un’istruttoria» sulla questione, sollecitando chiarimenti alla società a stelle e strisce. Non è il primo provvedimento del genere: il 3 febbraio è stato disposto un blocco a carico del «chatbot Replika per i troppi i rischi per i minori e le persone emotivamente fragili». E in passato altri atti sono stati indirizzati a TikTok e Clearview. Ma intanto il mondo politico si divide fra chi plaude, come il presidente della Commissione Cultura della Camera Federico Mollicone di Fdi («Bene il blocco del Garante») e chi si dice scettico, come il leader di Iv Matteo Renzi («Una barzelletta»).

Le contestazioni

Il Garante rileva in prima battuta «la mancanza di una informativa» (come quelle che ormai da anni ogni italiano è abituato a firmare per acconsentire o no a determinati usi dei propri dati), rivolta «agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI». Inoltre, nel mirino c’è «l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma». Ancora, secondo il Garante, in base a verifiche effettuate, «le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto». E per di più, nonostante il servizio sia rivolto ai maggiori di 13 anni, secondo l’Autorità italiana «l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti espone i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza».

Il campanello d’allarme

Ad attirare l’attenzione dell’Authority, composta da un collegio di quattro persone e presieduta dal giurista Pasquale Stanzione, è stato un episodio del 20 marzo, quando ChatGPT ha subito una perdita di dati (un data breach, in termini tecnici) su conversazioni degli utenti e informazioni relative al pagamento degli abbonati al servizio. Ora il Garante ha adottato un provvedimento d’urgenza, sulla base di un fumus , un sospetto, di un possibile illecito. L’istruttoria servirà ad accertarne o meno l’esistenza. E la stessa società potrà inviare una memoria per fornire risposte. Nel frattempo, spiega ad Avvenire Agostino Ghiglia, membro del collegio del Garante, il «provvedimento invita la società americana a sospendere il trattamento dei dati usati per addestrare gli algoritmi». Una volta presone atto, i legali di OpenAI(che non ha una sede nell’Ue, ma solo un rappresentante) dovranno comunicare «entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante». Cosa rischierebbero se non dovessero fare nulla? «Se non dovessero ottemperare a un provvedimento del Garante, commetterebbero un reato penale - osserva Ghiglia -. Ma è un caso di scuola e confidiamo che non avverrà. Se invece i chiarimenti dovessero essere non esaustivi, potremmo decidere per un prolungamento del blocco per tre mesi, prorogabile per altri tre. E comunque la procedura potrebbe avere riflessi europei», visto che la società ha un rappresentante in Irlanda. Infine, potrebbe scattare «una sanzione pecuniaria fino a 20 milioni di euro o fino al 4% del fatturato globale annuo». La palla dunque ora passa ai vertici di OpenAI. Nata nel dicembre 2015 (con soci fondatori come Elon Musk e Peter Thiel e il sostegno di Amazon e altri colossi) come società di ricerca sull’intelligenza artificiale, dal 2019 è diventata a scopo di lucro limitato, con un miliardo di dollari ricevuti da Microsoft. Dopo l’uscita di Musk, è guidata da Sam Altman e valutata 29 miliardi di dollari. Quest’anno, secondo l’agenzia Reuters, ha previsto un fatturato di 200 milioni, che potrebbero salire a un miliardo nel 2024.

© Riproduzione riservata
COMMENTA E CONDIVIDI