Le incertezze sul racconto del drone statunitense che avrebbe ucciso il proprio operatore

In questi giorni è uscita la notizia di un drone statunitense controllato da una intelligenza artificiale che in una simulazione avrebbe ucciso il proprio operatore, in modo da svolgere più efficacemente e senza impedimenti il compito che le era stato assegnato. Ma pare che la notizia sia stata riportata parzialmente.

L’origine della notizia

Stando a quanto dice l’Aeronautica militare degli Stati Uniti una simulazione del genere non è mai avvenuta e si sospetta che la notizia nasca dal racconto di una rappresentazione ipotetica e teorica di che cosa potrebbe accadere se si impiegassero le AI per distruggere obiettivi con i droni. I titoli dei giornali che hanno riportato la notizia hanno impiegato il termine “uccidere” per riferirsi all’azione del drone nei confronti dell’operatore. Alcune ricostruzioni della storia fanno risalire la faccenda a un blog che ha pubblicato un resoconto su una conferenza avvenuta a Londra gli scorsi 23 e 24 maggio, per fare il punto sull’impiego delle nuove tecnologie in particolari ambiti di combattimento.

Drone che vola sul mare
Foto | Unsplash @Karl Greif – Cryptohack.it

Tucker Hamilton, responsabile delle attività di test sulle IA per l’Aeronautica militare statunitense, aveva raccontato i pregi e i difetti dei sistemi a controllo automatico, parlando delle strategie che le intelligenze artificiali possono adottare per raggiungere i loro obiettivi, e che potrebbero anche comprendere attacchi rivolti verso chi li controlla. In una delle circostanze raccontate (non è chiaro se a partire da uno scenario ipotetico o da una simulazione) una IA veniva addestrata per identificare e trasformare in obiettivo un missile terra-aria, per poi distruggerlo dopo il via di un operatore. L’IA avrebbe ricevuto il proprio rinforzo positivo solo nel caso in cui avesse colpito il missile, di conseguenza vedeva l’operatore come un impedimento per raggiungere il proprio obiettivo e decideva di ucciderlo. Segnalare alla IA che l’uccisione dell’operatore avrebbe comportato la perdita di punti portava il sistema ad astenersi dall’ucciderlo, ma spostava l’obiettivo sulla torre di trasmissione utilizzata dall’operatore per dare il proprio comando finale sulla distruzione del missile.

Fare chiarezza sulla situazione

Arvind Narayanan, professore di informatica presso la Princeton Universityha segnalato alcune stranezze negli articoli che parlavano della vicenda, sia per la mancanza di dettagli sia per alcune affermazioni sulle effettive capacità di decisione delle IA in circostanze di quel tipo. Il confronto ha coinvolto diversi esperti di IA.

Uno scenario può essere semplicemente una speculazione ipotetica basata su dati reali di partenza, ma nel quale si immaginano gli esiti più o meno probabili di una certa attività. Altri hanno però segnalato che durante la conferenza erano previsti altri scenari ipotetici e che non è chiaro se lo fosse effettivamente anche quello di Hamilton. Un portavoce ha però detto che il Dipartimento dell’Aeronautica militare degli Stati Uniti non ha condotto alcun tipo di simulazione AI-drone. Sembra, dunque, che i commenti del colonnello siano stati presi fuori contesto.

Aereo dell'Aeronautica militare
Foto | Unsplash @Kevin Den Heijer – Cryptohack.it

IA al centro dell’attenzione mediatica

Appare insolito che una IA possa derivare facilmente la scelta di distruggere una torre di trasmissione dopo che le viene impedito di uccidere l’operatore che la utilizza, in mancanza di dati specifici. Nella fase di formazione possono essere inoltre aggiunte numerose limitazioni alle capacità di azione delle IA, per esempio proprio per evitare che conducano attività impreviste contro chi le ha programmate o le controlla.

Il modo in cui è stata raccontata la notizia conferma quanto sia alta l’attenzione in questo periodo sulle intelligenze artificiali e i rischi che potrebbero comportare. Di recente il Center for AI Safety ha pubblicato una lettera aperta dove si dice che i sistemi di intelligenza artificiale potrebbero portare a una minaccia per l’umanità. La lettera è stata sottoscritta da oltre 350 responsabili del settore, compresi alcuni dirigenti delle principali aziende impegnate nello sviluppo delle IA come OpenAI e Google.

Gestione cookie