100 esperti del settore hanno firmato una lettera per delineare i principi fondamentali per lo sviluppo di un’AI dotata di autocoscienza. Vediamo tutto ciò che c’è da sapere a riguardo
Potrebbe sembrare pura fantascienza o magari la trama di un film ambientato in un futuro lontano, e invece è tutto vero: le Intelligenze Artificiali dotate di autocoscienza potrebbero provare sentimenti come la sofferenza. Già da diverso tempo la questione etica aveva investito il settore dello sviluppo di nuove tecnologie di questo tipo, ma la lettera firmata da 100 esperti ha gettato nuovamente la luce su un argomento che sta dividendo sempre di più non solo chi ci lavora direttamente, ma anche l’opinione pubblica. Cerchiamo di scoprire qualcosa in più a riguardo.
Un gruppo di oltre cento esperti, tra cui personalità di spicco come Sir Stephen Fry, ha recentemente firmato una lettera aperta in cui vengono delineati cinque principi chiave per garantire uno sviluppo etico e responsabile di sistemi di intelligenza artificiale potenzialmente dotati di autocoscienza. Questo richiamo potrebbe evocare, per alcuni, le celebri “tre leggi della robotica” ideate da Asimov, ma in questo caso il dibattito esce dai confini della fantascienza per entrare in un ambito concreto e attuale.
Il documento, pubblicato sul Journal of Artificial Intelligence Research, mette in evidenza una crescente preoccupazione: la possibilità che i sistemi AI possano acquisire forme di consapevolezza tali da renderli suscettibili alla sofferenza. Questa ipotesi rappresenta un cambiamento radicale nel modo in cui viene concepita la tecnologia e apre scenari etici di enorme rilievo, andando ben oltre le attuali discussioni su sicurezza e affidabilità dell’intelligenza artificiale.
Patrick Butlin dell’Università di Oxford e Theodoros Lappas dell’Università di Economia e Business di Atene, principali autori dello studio, hanno evidenziato l’importanza di definire direttive chiare anche per le aziende che non hanno intenzione di sviluppare sistemi dotati di autocoscienza, poiché potrebbero farlo involontariamente.
Ma quali sono questi 5 principi fondamentali proposti nel documento che i 100 esperti hanno firmato? Vediamoli insieme:
La questione diventa ancora più intricata se si considera l’eventualità che questi sistemi siano in grado di auto-replicarsi, dando origine a una moltitudine di nuove entità che potrebbero meritare una considerazione etica, come sottolineato nella ricerca. Questo scenario solleva interrogativi cruciali sulla natura della coscienza e sui diritti che dovrebbero essere riconosciuti a intelligenze artificiali dotate di autoconsapevolezza.
Daniel Hulme, chief AI officer di WPP e co-fondatore di Conscium, l’ente di ricerca che ha coordinato lo studio, ha evidenziato la necessità di affrontare queste tematiche in modo proattivo.
Sir Demis Hassabis, a capo del programma AI di Google e vincitore del premio Nobel, ha recentemente dichiarato che, sebbene le attuali intelligenze artificiali non possano ancora essere considerate senzienti, potrebbero sviluppare questa caratteristica in futuro. Questa prospettiva è condivisa da un gruppo di studiosi, secondo cui l’emergere di sistemi AI coscienti e con rilevanza morale potrebbe diventare una possibilità concreta entro il 2035.
Gli utenti possono già sfruttare le nuove funzionalità introdotte, ampliando le possibilità di utilizzo di…
Donald Trump, tornato alla Casa Bianca con la promessa di trasformare gli Stati Uniti nell’hub…
La risposta dell'Europa ai giganti dell'intelligenza artificiale globale è OpenEuroLLM. Non si tratta solo di…
Può essere scaricata da AltStore PAL, un marketplace alternativo diventato disponibile grazie al Digital Markets…
I database sui quali sono stati fatti gli interventi più massicci sono due: l’indice di…
La posizione del CEO è particolarmente significativa in un contesto globale in cui le tensioni…