OpenAi ha sospeso l’accesso al servizio ChatGpt in Italia, dopo lo stop del Garante della privacy al software d’intelligenza artificiale sviluppato dall’organizzazione di ricerca con sede negli Stati Uniti.
OpenAi ha dichiarato di aver disabilitato ChatGpt per gli utenti in Italia su richiesta del Garante.
Il sito internet dell’applicazione risulta al momento irraggiungibile dal nostro Paese. Un avviso sulla pagina web chat.openai.com. afferma che “il proprietario del sito potrebbe aver impostato restrizioni che impediscono agli utenti di accedere”. “Lavoriamo attivamente per ridurre i dati personali nella formazione dei nostri sistemi di intelligenza artificiale come ChatGpt, perché vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non i privati”, spiega OpenAi. “Riteniamo inoltre che la regolamentazione dell’Ai sia necessaria. Speriamo quindi di poter lavorare al più presto stretto contatto con il Garante per spiegare come i nostri sistemi siano costruiti e utilizzati”, aggiunge l’organizzazione di ricerca sull’intelligenza artificiale.
Dopo gli appelli di manager e ricercatori e le prime denunce Oltreoceano, arriva dall’Italia il primo stop a ChatGpt, il software di intelligenza artificiale che sta suscitando grande interesse in tutto il mondo, ma anche moltissimi interrogativi. Quelli che anche il Garante per la privacy si è posto, decidendo di mettere un freno alla piattaforma in grado di sviluppare conversazioni con gli umani attraverso tecniche di apprendimento automatico. L’Autorità ha aperto un’istruttoria contestando la raccolta illecita dei dati degli utenti italiani e ha disposto, con effetto immediato, la limitazione provvisoria del loro trattamento da parte di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma, fino a quando la normativa sulla privacy non verrà rispettata. Si tratta del primo intervento a livello mondiale di questo tenore, che potrebbe avere sviluppi nel resto dell’Europa anche grazie al coordinamento tra le autorità per la privacy dei diversi paesi. Diverse le contestazioni mosse all’organizzazione nata a San Francisco proprio per sviluppare la cosiddetta “intelligenza artificiale amichevole”. Il Garante rileva la mancanza di una informativa agli utenti, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Tanto più che le informazioni fornite da ChatGpt non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto. Inoltre, nonostante il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza. OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo. La vulnerabilità di ChatGpt è emersa lo scorso 20 marzo quando, a causa di un problema tecnico, è stata mostrata non solo la cronologia delle domande degli utenti, con i loro dati, ma anche parte dei dettagli sui metodi di pagamento usati per l’abbonamento a ChatGpt Plus, che offre funzionalita’ extra. La società, su cui Microsoft ha investito molto nei mesi scorsi, ha bloccato l’accesso alla piattaforma per evitare che l’errore di privacy si estendesse ulteriormente. Il software continua comunque ad essere sviluppato e a diffondersi, tanto che per i prossimi mesi è stato annunciato l’aggiornamento numero 5, che potrebbe diventare indistinguibile da un essere umano. Sullo stesso terreno si stanno muovendo Google e altre aziende tecnologiche occidentali, mentre in Cina si assiste ad un fiorente mercato di copie non autorizzate, con rischi legati alla cyber sicurezza. Un panorama che ha spinto una società di ricerca senza scopo di lucro americana a sporgere denuncia alla Federal Trade Commission, chiedendo di sospendere l’implementazione commerciale di modelli linguistici di grandi dimensioni come ChatGpt proprio per i rischi per la privacy e la sicurezza pubblica. Inoltre, Elon Musk e altri mille fra ricercatori e manager hanno proposto una pausa di sei mesi nello sviluppo dei sistemi di intelligenza artificiale avanzati per fermare quella che definiscono una pericolosa corsa agli armamenti.