L’amministratore delegato di Google Sundar Pichai in una nota ha affrontato la questione delle immagini storicamente false prodotte da Gemini attraverso l’intelligenza artificiale. Immagini che, circolate rapidamente sui social network, nelle scorse settimane hanno provocato aspre polemiche e scatenato dure reazioni sui media. Pichai ha definito le problematiche emerse “inaccettabili” nella nota, che è stata diffusa da Semafor e confermata dall’azienda di Mountain View.
Le parole di Sundar Pichai
“So che alcune delle sue elaborazioni hanno offeso i nostri utenti e hanno mostrato segni di pregiudizio – ha detto Pichai riferendosi a Gemini -. Per essere chiari, questo è completamente inaccettabile e abbiamo fatto un errore”, ha ammesso Pichai aggiungendo che “I nostri team sono al lavoro in questo momento affrontare queste problematiche” e che “Stiamo già vedendo un sostanziale miglioramento su una vasta gamma di richieste”. “Nessuna intelligenza artificiale è perfetta, soprattutto in questa fase emergente dello sviluppo del settore, ma sappiamo che l’asticella è alta per noi e continueremo a lavorarci per tutto il tempo necessario. Inoltre verificheremo quello che è successo e ci assicureremo di sistemare l’errore su vasta scala”, ha concluso Pichai.
Lo stop alla generazione di immagini
Google ha ammesso pubblicamente l’errore lo scorso 21 febbraio con un post su X, attraverso cui ha allo stesso tempo annunciato che la generazione di immagini di persone tramite intelligenza artificiale su Gemini sarebbe stata per il momento interrotta, in attesa del rilascio di una nuova versione riveduta e corretta. “Lavoreremo per migliorare l’intelligenza artificiale di Gemini ma è concepito come uno strumento di creatività e produttività e potrebbe non essere sempre affidabile, soprattutto quando si tratta di generare immagini o testo su eventi attuali, notizie in evoluzione o argomenti scottanti. Commetterà errori”, ha sottolineato qualche giorno dopo sul blog ufficiale dell’azienda Prabhakar Raghavan, senior vice president di Google.
Le polemiche
“Tre settimane fa, abbiamo lanciato una nuova funzione di generazione di immagini per l’app di conversazione Gemini (prima nota come Bard), che comprendeva la possibilità di creare immagini di persone – ha spiegato Raghavan -. È chiaro che questa funzione ha mancato il bersaglio. Alcune delle immagini generate sono imprecise o addirittura offensive. Siamo grati per il feedback degli utenti e ci dispiace che la nuova funzione non abbia funzionato a dovere”.
Eccesso di inclusività
La nuova funzione “è stata ottimizzata per garantire che non facesse gli errori che abbiamo visto in passato con la tecnologia di generazione di immagini: ad esempio la creazione di contenuti violenti o sessualmente espliciti, o con persone reali”, ha reso noto ancora il manager. “E siccome i nostri utenti provengono da tutto il mondo, vogliamo che funzioni bene per tutti”, così facendo però il modello di intelligenza artificiale ha “compensato eccessivamente, portando a immagini imbarazzanti e sbagliate” da un lato, mentre dall’altro lato “è diventato molto più cauto di quanto volessimo e si è rifiutato del tutto di rispondere ad alcune richieste”, giudicate erroneamente come “sensibili”.
“Come abbiamo detto fin dall’inizio – conclude – le ‘allucinazioni’ sono una sfida nota per tutti i modelli di intelligenza artificiale. Non era nostra intenzione creare foto solo con un gruppo di etnie o fare errori storici. Posso promettere che continueremo ad agire ogni volta che identifichiamo un problema ma non posso promettere che Gemini non genererà occasionalmente risultati imbarazzanti, imprecisi o offensivi. L’intelligenza artificiale è una tecnologia emergente utile in tanti modi, con un enorme potenziale e stiamo facendo del nostro meglio per implementarla in modo sicuro e responsabile”.