Nell’ultimo anno l’Intelligenza artificiale (IA) ha fatto parecchi passi avanti, con una velocità che ha colto di sorpresa persino alcuni esperti del settore. Come dimostrato dalle recenti foto raffiguranti Papa Francesco con addosso un vistoso giubbino bianco e del finto arresto di Donald Trump, parte della società è ancora impreparata a riconoscere le immagini create da un algoritmo. Per non parlare poi di GPT-4 e della sua capacità di generare testi verosimili, spesso indistinguibili da quelli che potrebbero essere prodotti da un essere umano.
Se già ora il livello è questo, cosa potrebbe succedere nei prossimi mesi? È proprio quel che si sono chiesti Elon Musk, Ceo di Tesla, Steve Wozniak, co-fondatore di Apple, lo storico e saggista Yuval Noah Harar, il co-fondatore di Skype Jaan Tallinn e altri grandi nomi del settore tecnologico, che tramite una lettera aperta hanno chiesto ai giganti del settore IA di fermarsi (o perlomeno rallentare) per valutare la situazione e decidere con calma i prossimi passi da compiere.
La lettera invita a portare avanti la ricerca sull’IA, evitando però di sviluppare degli algoritmi più potenti di quelli attuali, almeno per qualche mese, e creando dei protocolli che permettano un uso sicuro di queste tecnologie. I colossi, in particolare, dovrebbero cercare di non superare il livello raggiunto da GPT-4, l’ultimo algoritmo creato da OpenAI, per almeno sei mesi. Nella missiva si legge che “questa pausa dovrebbe essere verificabile e concreta e includere tutti gli attori del settore. Altrimenti sarà necessario che i governi intervengano”.
I firmatari sono preoccupati che le IA possano diventare così avanzate da diventare un pericolo per la sicurezza informatica e pubblica, arrivando non solo a diffondere disinformazione, ma anche portando a dei cambiamenti difficili da controllare nell’ambito lavorativo (molti artisti hanno già avuto dei problemi a causa di IA come Midjourney e Dall-E). “Nessuno, neppure chi li crea, può predire, controllare o capire le vere potenzialità dei sistemi basati sul machine learning”.
Nella lettera si legge anche che “gli sviluppatori di IA dovrebbero utilizzare la pausa per sottoscrivere congiuntamente una serie di protocolli condivisi e rigorosi che vengano validati da esperti esterni e che certifichino che i sistemi di machine learning siano sicuri e affidabili”. A destare particolare preoccupazione tra i firmatari è la potenza delle IA future e dello scarso controllo che chi le crea potrebbe avere su di esse. Il rischio di un far west digitale appare tutt’altro che remoto e l’invito a mettere dei paletti ben specifici è comprensibile. “L’intelligenza artificiale avanzata potrebbe comportare un profondo cambiamento nella storia dell’essere umano e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Purtroppo questo livello di pianificazione e gestione non sta avvenendo e negli ultimi mesi i laboratori di IA sono stati coinvolti in una corsa fuori controllo per sviluppare e implementare intelligenze digitali sempre più potenti”.
Pur proponendo alcuni passi avanti dal punto di vista tecnico, la console sembra essere destinata…
Alcuni proprietari di immobili, che vivono in California, stanno sfocando le proprie abitazioni su Google…
Negli ultimi anni sono aumentate le truffe online e anche quelle tramite messaggistica: gli imbroglioni…
Dopo il lancio disastroso, il numero di utenti attivi è calato sempre di più e…
Il nostro Paese tra i primi a utilizzare l'intelligenza artificiale nel campo dell'imprenditoria. Ma le…
Definendo un nuovo standard per la privacy nell’AI, Apple Intelligence capisce il contesto personale per…