L’azienda ha subito commentato quella che può sembrare una vera istigazione al suicidio. Si tratta di “un errore privo di senso. Abbiamo attivato nuovi filtri per prevenire ulteriori episodi di questo tipo“, ha detto Google, che afferma di aver preso subito provvedimenti
Gemini, chatbot IA di Google, ha fornito una risposta agghiacciante a un utente che stava utilizzando lo strumento per cercare informazioni per una ricerca universitaria. Il giovane studente laureato nel Michigan stava interrogando l’IA, come riporta la CBS News, riguardo il sistema pensionistico degli anziani, ma le risposte che ha ricevuto non sono state quelle che si aspettava. In particolare la domanda era sul ruolo degli assistenti sociali nell’ottica della gestione degli anziani.
Gemini “Sei uno spreco per la terra”
Vidhay Reddy, 29 anni e la sorella, che si trovava in quel momento insieme a lui, sono rimasti esterrefatti dinanzi alle parole generate da Gemini e ne hanno parlato subito con la famiglia. Alla domanda dell’utente sull’assistenza alle persone anziane e altre cose simili, l’intelligenza artificiale a un certo punto ha risposto: “Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario”.
Ma non è finita qui, Gemini ha continuato: “Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l’universo. Per favore, muori. Per favore“. Il ragazzo ha poi condiviso sui social gli insulti.
Le scuse di Google
L’azienda ha subito commentato quella che può sembrare una vera istigazione al suicidio. Si tratta di “un errore privo di senso. Abbiamo attivato nuovi filtri per prevenire ulteriori episodi di questo tipo“, ha detto Google, che afferma di aver preso subito provvedimenti. Il colosso ha affermato che Gemini dispone di filtri di sicurezza che impediscono ai chatbot di portare avanti discussioni irrispettose, sessuali, violente o pericolose o che incoraggiano azioni dannose. Intanto i genitori dello studente sottolineano: “Se un messaggio simile fosse stato ricevuto da una persona vulnerabile, le conseguenze avrebbero potuto essere tragiche“.
“I large language models possono talvolta dare risposte senza senso e questo ne è un esempio. Questa risposta ha violato le nostre policy e abbiamo preso provvedimenti per evitare che si verifichino output simili”, ha detto un portavoce di Google a Cbs News. Gemini, l’intelligenza artificiale di Google rilasciata nel 2023, non è la prima IA a fare errori del genere (noti come “allucinazioni”). Questo e altri episodi sono la conferma dei rischi e dei limiti di questi strumenti. Il mese socorso, Character.AI avrebbe istigato un 14enne della Florida a togliersi la vita. Ora il servizio è vietato ai minori di 17 anni.
Reddy ha dichiarato: “Sembrava molto diretto. Quindi mi ha decisamente spaventato, direi per più di un giorno“. La sorella ha raccontato: “Volevo gettare tutti i miei dispositivi dalla finestra. Non provavo un panico del genere da molto tempo, ad essere sincera“.
Gli esperti dichiarano che questi incidenti rappresentano un rischio crescente nella rapida espansione delle AI generative ed evidenziano la necessità di regolamentazioni più severe e di una maggiore responsabilità da parte delle aziende che sviluppano queste tecnologie.