Nell’ultimo anno l’Intelligenza artificiale (IA) ha fatto parecchi passi avanti, con una velocità che ha colto di sorpresa persino alcuni esperti del settore. Come dimostrato dalle recenti foto raffiguranti Papa Francesco con addosso un vistoso giubbino bianco e del finto arresto di Donald Trump, parte della società è ancora impreparata a riconoscere le immagini create da un algoritmo. Per non parlare poi di GPT-4 e della sua capacità di generare testi verosimili, spesso indistinguibili da quelli che potrebbero essere prodotti da un essere umano.
Se già ora il livello è questo, cosa potrebbe succedere nei prossimi mesi? È proprio quel che si sono chiesti Elon Musk, Ceo di Tesla, Steve Wozniak, co-fondatore di Apple, lo storico e saggista Yuval Noah Harar, il co-fondatore di Skype Jaan Tallinn e altri grandi nomi del settore tecnologico, che tramite una lettera aperta hanno chiesto ai giganti del settore IA di fermarsi (o perlomeno rallentare) per valutare la situazione e decidere con calma i prossimi passi da compiere.
L’appello a rallentare lo sviluppo dell’IA
La lettera invita a portare avanti la ricerca sull’IA, evitando però di sviluppare degli algoritmi più potenti di quelli attuali, almeno per qualche mese, e creando dei protocolli che permettano un uso sicuro di queste tecnologie. I colossi, in particolare, dovrebbero cercare di non superare il livello raggiunto da GPT-4, l’ultimo algoritmo creato da OpenAI, per almeno sei mesi. Nella missiva si legge che “questa pausa dovrebbe essere verificabile e concreta e includere tutti gli attori del settore. Altrimenti sarà necessario che i governi intervengano”.
I firmatari sono preoccupati che le IA possano diventare così avanzate da diventare un pericolo per la sicurezza informatica e pubblica, arrivando non solo a diffondere disinformazione, ma anche portando a dei cambiamenti difficili da controllare nell’ambito lavorativo (molti artisti hanno già avuto dei problemi a causa di IA come Midjourney e Dall-E). “Nessuno, neppure chi li crea, può predire, controllare o capire le vere potenzialità dei sistemi basati sul machine learning”.
I possibili rischi
Nella lettera si legge anche che “gli sviluppatori di IA dovrebbero utilizzare la pausa per sottoscrivere congiuntamente una serie di protocolli condivisi e rigorosi che vengano validati da esperti esterni e che certifichino che i sistemi di machine learning siano sicuri e affidabili”. A destare particolare preoccupazione tra i firmatari è la potenza delle IA future e dello scarso controllo che chi le crea potrebbe avere su di esse. Il rischio di un far west digitale appare tutt’altro che remoto e l’invito a mettere dei paletti ben specifici è comprensibile. “L’intelligenza artificiale avanzata potrebbe comportare un profondo cambiamento nella storia dell’essere umano e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Purtroppo questo livello di pianificazione e gestione non sta avvenendo e negli ultimi mesi i laboratori di IA sono stati coinvolti in una corsa fuori controllo per sviluppare e implementare intelligenze digitali sempre più potenti”.