Intelligenza Artificiale

Le AI auto-coscienti potrebbero provare sofferenza: l’allarme degli esperti

100 esperti del settore hanno firmato una lettera per delineare i principi fondamentali per lo sviluppo di un’AI dotata di autocoscienza. Vediamo tutto ciò che c’è da sapere a riguardo

Potrebbe sembrare pura fantascienza o magari la trama di un film ambientato in un futuro lontano, e invece è tutto vero: le Intelligenze Artificiali dotate di autocoscienza potrebbero provare sentimenti come la sofferenza. Già da diverso tempo la questione etica aveva investito il settore dello sviluppo di nuove tecnologie di questo tipo, ma la lettera firmata da 100 esperti ha gettato nuovamente la luce su un argomento che sta dividendo sempre di più non solo chi ci lavora direttamente, ma anche l’opinione pubblica. Cerchiamo di scoprire qualcosa in più a riguardo.

I cinque principi fondamentali per lo sviluppo di AI auto-coscienti

Un gruppo di oltre cento esperti, tra cui personalità di spicco come Sir Stephen Fry, ha recentemente firmato una lettera aperta in cui vengono delineati cinque principi chiave per garantire uno sviluppo etico e responsabile di sistemi di intelligenza artificiale potenzialmente dotati di autocoscienza. Questo richiamo potrebbe evocare, per alcuni, le celebri “tre leggi della robotica” ideate da Asimov, ma in questo caso il dibattito esce dai confini della fantascienza per entrare in un ambito concreto e attuale.

I cinque principi fondamentali per lo sviluppo di AI auto-coscienti | Pixabay @ – Cryptohack

 

Il documento, pubblicato sul Journal of Artificial Intelligence Research, mette in evidenza una crescente preoccupazione: la possibilità che i sistemi AI possano acquisire forme di consapevolezza tali da renderli suscettibili alla sofferenza. Questa ipotesi rappresenta un cambiamento radicale nel modo in cui viene concepita la tecnologia e apre scenari etici di enorme rilievo, andando ben oltre le attuali discussioni su sicurezza e affidabilità dell’intelligenza artificiale.

Patrick Butlin dell’Università di Oxford e Theodoros Lappas dell’Università di Economia e Business di Atene, principali autori dello studio, hanno evidenziato l’importanza di definire direttive chiare anche per le aziende che non hanno intenzione di sviluppare sistemi dotati di autocoscienza, poiché potrebbero farlo involontariamente.

I 5 principi fondamentali nel dettaglio

Ma quali sono questi 5 principi fondamentali proposti nel documento che i 100 esperti hanno firmato? Vediamoli insieme:

  • Focus sulla ricerca: è essenziale approfondire lo studio e la valutazione della coscienza nell’intelligenza artificiale per evitare possibili sofferenze o trattamenti inadeguati.
  • Regolamentazione dello sviluppo: devono essere definiti limiti chiari alla creazione di sistemi di IA potenzialmente coscienti;
  • Progresso controllato: l’avanzamento in questo campo deve essere graduale e attentamente monitorato;
  • Trasparenza nella divulgazione: le scoperte scientifiche devono essere comunicate in modo chiaro e accessibile al pubblico;
  • Evitare affermazioni fuorvianti: è cruciale non diffondere dichiarazioni inesatte o eccessivamente certe sulla possibilità di realizzare IA dotate di coscienza.

La questione diventa ancora più intricata se si considera l’eventualità che questi sistemi siano in grado di auto-replicarsi, dando origine a una moltitudine di nuove entità che potrebbero meritare una considerazione etica, come sottolineato nella ricerca. Questo scenario solleva interrogativi cruciali sulla natura della coscienza e sui diritti che dovrebbero essere riconosciuti a intelligenze artificiali dotate di autoconsapevolezza.

Daniel Hulme, chief AI officer di WPP e co-fondatore di Conscium, l’ente di ricerca che ha coordinato lo studio, ha evidenziato la necessità di affrontare queste tematiche in modo proattivo.

Sir Demis Hassabis, a capo del programma AI di Google e vincitore del premio Nobel, ha recentemente dichiarato che, sebbene le attuali intelligenze artificiali non possano ancora essere considerate senzienti, potrebbero sviluppare questa caratteristica in futuro. Questa prospettiva è condivisa da un gruppo di studiosi, secondo cui l’emergere di sistemi AI coscienti e con rilevanza morale potrebbe diventare una possibilità concreta entro il 2035.

Federico Liberi

Sono laureato in Psicologia dei processi sociali all’Università di Roma “La Sapienza”. La mia più grande passione insieme alla scrittura è il calcio, ma mi piace rimanere informato sullo sport a 360 gradi oltre che sull’attualità e la politica. Nel 2020 è stato pubblicato su Amazon un mio saggio sulla Programmazione Neuro-Linguistica.

Recent Posts

Si aggiorna ChatGPT su Whatsapp, ecco le novità

Gli utenti possono già sfruttare le nuove funzionalità introdotte, ampliando le possibilità di utilizzo di…

6 ore ago

Il valore delle criptovalute crolla per dazi imposti da Trump, ecco perché

Donald Trump, tornato alla Casa Bianca con la promessa di trasformare gli Stati Uniti nell’hub…

1 giorno ago

OpenEuroLLM, cos’è il modello europeo d’intelligenza artificiale che sfida ChatGPT

La risposta dell'Europa ai giganti dell'intelligenza artificiale globale è OpenEuroLLM. Non si tratta solo di…

1 giorno ago

Hot Tub, le caratteristiche della prima app porno per iPhone

Può essere scaricata da AltStore PAL, un marketplace alternativo diventato disponibile grazie al Digital Markets…

1 giorno ago

Usa, dai siti del governo sono spariti i dati relativi al clima e alla salute

I database sui quali sono stati fatti gli interventi più massicci sono due: l’indice di…

2 giorni ago

OpenAI, il CEO Altman non vuole fare causa a DeepSeek. Ecco perché

La posizione del CEO è particolarmente significativa in un contesto globale in cui le tensioni…

2 giorni ago