L’intelligenza artificiale può essere pericolosa e potrebbe portare addirittura all’estinzione dell’umanità.
Questo il senso della lettera firmata da 350 leader del settore AI e diffusa dal Center for AI Safety.
Una dichiarazione molto chiara e sottoscritta anche dal CEO di OpenAI, Sam Altman, oltre che da 38 membri dell’unità di intelligenza artificiale di DeepMind di Google, tra cui il CEO Demis Hassabis.
Lo scopo di questo messaggio d’allarme? Mettere in guardia la comunità mondiale su quelli che possono essere rischi e pericoli legati a un eccessivo e incorretto sviluppo e utilizzo dell’intelligenza artificiale nei prossimi anni.
“Mitigare i rischi di estinzione rappresentati dall’intelligenza artificiale deve essere una priorità globale, insieme ad altri rischi per la società come le pandemie e la guerra nucleare”.
Questo il grido d’allarme lanciato dalla lettera divulgata dal Center for AI Safety, il quale segue a distanza di pochissimi mesi l’appello già lanciato nel marzo scorso da oltre mille accademici, esponenti del mondo del business e della tecnologia.
Nel passato recente, diversi sono stati, infatti, i segnali di pericolo evidenziati dagli esperti del settore AI e dalle Big Tech, basandosi su una convinzione ormai diffusa e radicata: l’intelligenza artificiale può rappresentare una minaccia per l’uomo.
Un concetto ribadito ancora una volta anche da Dan Hendrycks, Presidente del già citato Center for AI Safety:
“Abbiamo bisogno che sia diffusa la consapevolezza di quello che è in gioco, prima di aver proficue discussioni. Dobbiamo mostrare che i rischi sono abbastanza gravi e hanno bisogno di proposte proporzionate”.
Un utilizzo errato di tecnologie che si basano sull’intelligenza artificiale potrebbe portare a una vera e propria catastrofe per l’umanità.
Il comunicato di sole ventidue parole (l’originale in inglese, ndr) sopra citato è chiarissimo: “L’umanità potrebbe rischiare l’estinzione”.
Una minaccia che oggi potrebbe sembrare un’esagerazione, ma che un domani potrebbe diventare però molto reale.
Per questo, Sam Altman (tra i creatori di ChatGPT, ndr) e colleghi hanno deciso di mettere in guardia la società, finendo addirittura per esortare i politici a equiparare la minaccia AI a quelle di pandemie e guerra nucleare. Forse le due più temute a livello mondiale.
Ciò che serve è creare dei protocolli di sicurezza condivisi, i quali possano essere applicati all’intelligenza artificiale più avanzata e utilizzati a salvaguardia dell’uomo.
Un processo che richiede indubbiamente tempo e risorse, ma che al momento sembra l’unica strada da percorrere.
O almeno questo è ciò che pensano gli esperti del settore, tra cui anche il sempre molto discusso Elon Musk, che lo scorso marzo era stato tra i firmatari della lettera in cui si chiedeva una pausa di sei mesi sullo sviluppo di modelli più avanzati e potenti di GPT-4 di OpenAI.
Oltre ai già citati Sam Altman e Demis Hassabis, tra i 350 firmatari della lettera diffusa dal Center for AI Safety ci sono anche Max Tegmark del MIT, il co-fondatore di Skype Jaan Tallinn e il noto musicista Grimes.
Personalità diverse legate dallo stesso pensiero di fondo: le menti digitali, rappresentate dall’intelligenza artificiale più sofisticata, sono sempre più potenti e difficili da comprendere anche per chi le ha create, nonché complicate da controllare in maniera affidabile.
Tra i firmatari ci sono, poi, anche degli italiani.
Luca Simoncini, esperto di tecnologie dell’informazione, ha osservato che l’intelligenza artificiale ormai “è così pervasiva da avere un forte impatto in molti settori della vita sociale, come su aspetti economici, finanziari, politici, educativi ed etici”.
Concorde pure Roberto Battiston, fisico dell’Università di Trento e anche lui tra i firmatari della dichiarazione:
“Questo tipo di algoritmi di intelligenza artificiale generativa si sono rivelati molto potenti nell’interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti. Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione”.
Ovviamente c’è anche chi non concorda con questa visione apocalittica legata all’AI.
Una testata specializzata come TechCrunch, per esempio, ritiene che il vero pericolo legato all’utilizzo dell’intelligenza artificiale risieda nella raccolta sistematica di dati personali online e in violazione della privacy delle persone, oltre che nella mancanza di trasparenza da parte delle Big Tech sull’utilizzo di tali dati.
Una pratica comune già oggi e sulla quale andrebbe posta la massima attenzione.
Uno studio dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) stima che circa il…
Critiche per lo spot natalizio 2024 di Coca-Cola, realizzato interamente con intelligenza artificiale: innovazione o…
Scopri le differenze tra ChatGPT, Gemini e Microsoft Copilot: caratteristiche, funzionalità e consigli per scegliere…
L'azienda ha subito commentato quella che può sembrare una vera istigazione al suicidio. Si tratta…
La DeFi permette di effettuare transazioni direttamente tra utenti, prestare o prendere in prestito denaro,…
L'esperimento di Fanpage.it sull'attesissimo incontro che andrà in onda questa notte su Netflix L’attesa è…