“Gli strumenti di intelligenza artificiale hanno un potenziale enorme, ma sono in una fase sperimentale e vanno perfezionati, lo scopo sarà la personalizzazione.
È importante siano democratici, alla portata di tutti e senza monopoli, e deve essere chiaro all’utente quando vengono usati”.È il parere all’ANSA di Tatiana Tommasi, professoressa al Politecnico di Torino che si occupa di Intelligenza artificiale, sul software ChatGpt3. È il trend tecnologico del momento, ha scatenato una corsa tra i big della tecnologia come Microsoft e Google, ma per ora i risultati non sono soddisfacenti.
“ChatGpt3 è una rete neurale profonda, comunicativa e conversazionale – spiega Tommasi – incamera una gigantesca quantità di dati e genera risposte e testi. È un modello che ha catturato una grande variabilità di informazioni e ha una grande potenzialità per scrivere un testo in linea col sentimento di chi sta interagendo. È un esperimento, un’apertura all’interattività che serve a rifinire lo strumento stesso”.
Microsoft ha investito molti soldi in ChatGpt3 e lo sta inglobando nel suo motore di ricerca Bing, Google sta invece costruendo un suo modello di intelligenza artificiale conversazionale che si chiama Bard. Entrambi gli esperimenti delle aziende, però, al debutto hanno mostrato errori e inesattezze. E OpenAI, la società che ha lanciato ChatGpt, ha riconosciuto che la tecnologia presenta dei limiti e sta lavorando ad una personalizzazione “da ciascun utente fino ai limiti definiti dalla società”.
“ChatGpt3 cattura tante informazioni dal web, alcune di queste come sappiamo non sono pulite, possono contenere linguaggio d’odio, razzismo, gender gap, disinformazione e possono essere utilizzate anche a scopi malevoli come lo spam e il phishing – osserva Tommasi – se i dati inglobati hanno problemi è chiaro che il testo generato avrà di conseguenza problemi. Questi modelli dovranno essere rifiniti con lo scopo di renderli più utili per gli utenti e personalizzarli sulle loro richieste, come un motore di ricerca fatto su misura”. “Al momento – aggiunge – hanno un grande potenziale, ad esempio per un ricercatore che vuole scrivere più correttamente in un’altra lingua. E in futuro, combinando la caratteristica conversazione con altre modalità formative potrà servire all’editoria a scoprire fake news e incongruenze tra testo e immagini se adeguatamente integrato con conoscenze visive”.
Tra i nodi da sciogliere per Tatiana Tommasi c’è il tema del plagio. “Un aspetto che sta emergendo e va preso in considerazione – sottolinea – fino ad ora è chiaro quando è un testo è scritto da una macchina o da umano, ci sono ancora inesattezze nei contenuti e possibili ripetizioni molti evidenti di testo. In sostanza un umano tenderebbe ad essere più diretto, usando meno parole. In futuro sarà importante la trasparenza verso gli utenti riguardo al fatto che un testo sia stato generato dall’Intelligenza artificiale, questa informazione deve essere chiara”. Per l’esperta, poi, sarà importante anche mantenere l’Intelligenza artificiale “il più democratica possibile, non monopolio di poche aziende, con il rischio così di manipolazione di gruppi unici”. Infine, va affrontato il problema di dispendio energetico di questi sistemi, in un momento storico come questo. ChatGp3, infatti, è addestrata su 45 terabite dati di testo, una gigantesca quantità di dati, la cui elaborazione è “energivora”.