A fine marzo, vari nomi importanti del settore della tecnologia, tra cui Elon Musk e Steve Wozniak, avevano inviato una lettera aperta ai giganti del settore dell’intelligenza artificiale (Ia) per chiedere loro di fermare momentaneamente lo sviluppo di algoritmi sempre più sofisticati per valutare la situazione e decidere con calma i prossimi passi da compiere. Inoltre, nella missiva di auspicavano la sottoscrizione di protocolli condivisi e rigorosi tramite i quali regolamentare i sistemi di machine learning. Un appello simile è da poco stato lanciato anche da Sam Altman, il 38enne fondatore e Ceo di OpenAI. Nel corso di una deposizione davanti alla sotto-commissione giustizia al Senato degli Stati Uniti in merito ai pericoli dell’intelligenza artificiale, il numero uno dell’organizzazione ha sottolineato quanto la tecnologia di cui si occupa ormai da anni possa portare con sé “dei rischi seri sui quali dobbiamo lavorare per poterli controllare”.
Altman ha sottolineato che l’intelligenza artificiale è uno strumento utilissimo, che però andrebbe tenuto sotto controllo da un’agenzia internazionale preposta a fissare delle regole comuni per tutti, un po’ come avvenuto per gli armamenti nucleari in seguito alla nascita dell’Atomic Energy Agency. L’Europa ha già iniziato a muoversi in tal senso approvando l’AI Act, il primo insieme di norme sull’Ia, ma si tratta solo di un primo passo (per quanto importante) nella direzione auspicata da Altman. I timori del Ceo non sono legati alla tecnologia in sé, che in quanto tale non è altro che uno strumento nelle mani dell’uomo, bensì ai suoi possibili utilizzi distorti.
Altman ritiene, inoltre, che l’intelligenza artificiale debba essere sviluppata con valori democratici. Infatti, essendo profondamente diversa da un social media necessita di una risposta diversa. La tecnologia in questione è ancora agli inizi, pertanto, rileva il Ceo di OpenAI, “si possono ancora commettere degli errori”. Per regolamentare la situazione, Altman propone di valutare la possibile concessione di licenze per lo sviluppo dei grandi modelli di intelligenza artificiale, revocabili in caso di mancato rispetto degli standard fissati dal potere politico. In secondo luogo, sarebbe necessario individuare dei criteri di sicurezza, tra i quali dovrebbe essere compresa la valutazione della capacità delle Ia di autoriprodursi o di sfuggire al controllo del gestore agendo in modo autonomo. Anche la loro eventuale manipolazione da parte di agenti esterni andrebbe tenuta sotto controllo.
Anche se Altman si è espresso su alcune possibili criticità legate all’intelligenza artificiale, non ha chiarito dubbi su altri aspetti, come la trasparenza del metodo di addestramento dei modelli di Ia e l’utilizzo dei contenuti protetti dal copyright.
Uno studio dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) stima che circa il…
Critiche per lo spot natalizio 2024 di Coca-Cola, realizzato interamente con intelligenza artificiale: innovazione o…
Scopri le differenze tra ChatGPT, Gemini e Microsoft Copilot: caratteristiche, funzionalità e consigli per scegliere…
L'azienda ha subito commentato quella che può sembrare una vera istigazione al suicidio. Si tratta…
La DeFi permette di effettuare transazioni direttamente tra utenti, prestare o prendere in prestito denaro,…
L'esperimento di Fanpage.it sull'attesissimo incontro che andrà in onda questa notte su Netflix L’attesa è…