Una lettera scuote il mondo dell’intelligenza artificiale. Si tratta di nove dipendenti attuali e passati di Open AI e Google che hanno voluto scrivere nero su bianco le proprie incertezze riguardo al ritmo di crescita e pericolosità che l’intelligenza artificiale potrebbe portare. È una lettera-monito, insomma. Dal titolo “Il diritto di mettere in guardia sull’intelligenza artificiale avanzata”. Di cosa si sta parlando? Come riporta il Corriere della Sera, i dipendenti sono spesso oggetto di impedimenti e tattiche che inibiscono loro la possibilità di esprimere preoccupazioni sulle tecnologie sviluppate. Sono spesso accordi legali, che impongono ai firmatari di non divulgare commenti negativi o critiche a un determinato soggetto o società.
Quali sono le preoccupazioni condivise?
I nove dipendenti spiegano come le aziende non stiano facendo nulla di concreto per evitare che gli strumenti di intelligenza artificiale sviluppati dalle compagnie, possano diventare pericolosi, come ha riportato il New York Times. C’è forte preoccupazione su come sarà la nostra vita con l’Intelligenza Artificiale. Lo stesso Sam Altman qualche tempo fa affermò che l’attuale ChatGpt sarà “incredibilmente stupida” rispetto alle prossime innovazioni. Insomma, qualche timore è lecito che ci sia. Tanto che sono molte le cose, riguardo a tutto questo, che allarmano enti e governi, di quasi ogni Stato del mondo. Infatti, l’Europa ha approvato di recente l’Ai Act, la prima legge in grado di regolare l’intelligenza artificiale benché allo stesso tempo la Corte dei Conti europea ne lamenti scarsi investimenti.
Inoltre, i dipendenti hanno riportato nella lettera delle affermazioni rilasciate in passato dagli stessi vertici delle aziende impegnate nello sviluppo di intelligenze artificiali. La stessa Open AI riferì che “L’AGI comporterebbe anche gravi rischi di uso improprio, incidenti drastici e disagi sociali. Opereremo come se questi rischi fossero esistenziali”. Anthropic ha, invece, affermato: “Se costruiamo un sistema di intelligenza artificiale che sia significativamente più competente degli esperti umani ma persegua obiettivi in conflitto con i nostri migliori interessi, le conseguenze potrebbero essere disastrose”. Infine, Google DeepMind: “È plausibile che i futuri sistemi di intelligenza artificiale possano condurre operazioni informatiche offensive, ingannare le persone attraverso il dialogo, manipolare le persone inducendole a compiere azioni dannose, sviluppare armi (ad esempio biologiche, chimiche). Questi modelli di intelligenza artificiale potrebbero compiere azioni dannose anche senza che nessuno lo intenda”. Insomma, nulla di rassicurante.
Ecco quali sono i rischi
I rischi ci sono, eccome. Ne sono convinti i firmatari della missiva. Ad esempio, dal “radicamento delle disuguaglianze esistenti” fino alla “manipolazione e alla disinformazione” e a due situazioni ben più preoccupanti, come la perdita del controllo di sistemi di Intelligenza Artificiale Autonomi (per questo gli scienziati hanno pensato a dei “semplici” tasti Off) o addirittura l’estinzione umana. I nove dipendenti sperano che le società avranno più obblighi nella condivisione delle informazioni con i governi e con la società civile. Cosa che al momento manca. Inoltre, le società dovrebbero sottostare a un controllo governativo. I dipendenti chiedono inoltre di non dover sottostare a minacce di ritorsione e accordi di riservatezza che potrebbero vietare loro di far emergere preoccupazioni su alcuni strumenti i cui pericoli potrebbero non essere nemmeno arginati dalle stesse aziende che li avrebbero provocati.