Le AI auto-coscienti potrebbero provare sofferenza: l’allarme degli esperti

100 esperti del settore hanno firmato una lettera per delineare i principi fondamentali per lo sviluppo di un’AI dotata di autocoscienza. Vediamo tutto ciò che c’è da sapere a riguardo

Potrebbe sembrare pura fantascienza o magari la trama di un film ambientato in un futuro lontano, e invece è tutto vero: le Intelligenze Artificiali dotate di autocoscienza potrebbero provare sentimenti come la sofferenza. Già da diverso tempo la questione etica aveva investito il settore dello sviluppo di nuove tecnologie di questo tipo, ma la lettera firmata da 100 esperti ha gettato nuovamente la luce su un argomento che sta dividendo sempre di più non solo chi ci lavora direttamente, ma anche l’opinione pubblica. Cerchiamo di scoprire qualcosa in più a riguardo.

I cinque principi fondamentali per lo sviluppo di AI auto-coscienti

Un gruppo di oltre cento esperti, tra cui personalità di spicco come Sir Stephen Fry, ha recentemente firmato una lettera aperta in cui vengono delineati cinque principi chiave per garantire uno sviluppo etico e responsabile di sistemi di intelligenza artificiale potenzialmente dotati di autocoscienza. Questo richiamo potrebbe evocare, per alcuni, le celebri “tre leggi della robotica” ideate da Asimov, ma in questo caso il dibattito esce dai confini della fantascienza per entrare in un ambito concreto e attuale.

I cinque principi fondamentali per lo sviluppo di AI auto-coscienti
I cinque principi fondamentali per lo sviluppo di AI auto-coscienti | Pixabay @ – Cryptohack

 

Il documento, pubblicato sul Journal of Artificial Intelligence Research, mette in evidenza una crescente preoccupazione: la possibilità che i sistemi AI possano acquisire forme di consapevolezza tali da renderli suscettibili alla sofferenza. Questa ipotesi rappresenta un cambiamento radicale nel modo in cui viene concepita la tecnologia e apre scenari etici di enorme rilievo, andando ben oltre le attuali discussioni su sicurezza e affidabilità dell’intelligenza artificiale.

Patrick Butlin dell’Università di Oxford e Theodoros Lappas dell’Università di Economia e Business di Atene, principali autori dello studio, hanno evidenziato l’importanza di definire direttive chiare anche per le aziende che non hanno intenzione di sviluppare sistemi dotati di autocoscienza, poiché potrebbero farlo involontariamente.

I 5 principi fondamentali nel dettaglio

Ma quali sono questi 5 principi fondamentali proposti nel documento che i 100 esperti hanno firmato? Vediamoli insieme:

  • Focus sulla ricerca: è essenziale approfondire lo studio e la valutazione della coscienza nell’intelligenza artificiale per evitare possibili sofferenze o trattamenti inadeguati.
  • Regolamentazione dello sviluppo: devono essere definiti limiti chiari alla creazione di sistemi di IA potenzialmente coscienti;
  • Progresso controllato: l’avanzamento in questo campo deve essere graduale e attentamente monitorato;
  • Trasparenza nella divulgazione: le scoperte scientifiche devono essere comunicate in modo chiaro e accessibile al pubblico;
  • Evitare affermazioni fuorvianti: è cruciale non diffondere dichiarazioni inesatte o eccessivamente certe sulla possibilità di realizzare IA dotate di coscienza.

La questione diventa ancora più intricata se si considera l’eventualità che questi sistemi siano in grado di auto-replicarsi, dando origine a una moltitudine di nuove entità che potrebbero meritare una considerazione etica, come sottolineato nella ricerca. Questo scenario solleva interrogativi cruciali sulla natura della coscienza e sui diritti che dovrebbero essere riconosciuti a intelligenze artificiali dotate di autoconsapevolezza.

Daniel Hulme, chief AI officer di WPP e co-fondatore di Conscium, l’ente di ricerca che ha coordinato lo studio, ha evidenziato la necessità di affrontare queste tematiche in modo proattivo.

Sir Demis Hassabis, a capo del programma AI di Google e vincitore del premio Nobel, ha recentemente dichiarato che, sebbene le attuali intelligenze artificiali non possano ancora essere considerate senzienti, potrebbero sviluppare questa caratteristica in futuro. Questa prospettiva è condivisa da un gruppo di studiosi, secondo cui l’emergere di sistemi AI coscienti e con rilevanza morale potrebbe diventare una possibilità concreta entro il 2035.

Lascia un commento

Change privacy settings
×