Fare chiarezza sulla situazione
Arvind Narayanan, professore di informatica presso la Princeton Universityha segnalato alcune stranezze negli articoli che parlavano della vicenda, sia per la mancanza di dettagli sia per alcune affermazioni sulle effettive capacità di decisione delle IA in circostanze di quel tipo. Il confronto ha coinvolto diversi esperti di IA.
Uno scenario può essere semplicemente una speculazione ipotetica basata su dati reali di partenza, ma nel quale si immaginano gli esiti più o meno probabili di una certa attività. Altri hanno però segnalato che durante la conferenza erano previsti altri scenari ipotetici e che non è chiaro se lo fosse effettivamente anche quello di Hamilton. Un portavoce ha però detto che il Dipartimento dell’Aeronautica militare degli Stati Uniti non ha condotto alcun tipo di simulazione AI-drone. Sembra, dunque, che i commenti del colonnello siano stati presi fuori contesto.
IA al centro dell’attenzione mediatica
Appare insolito che una IA possa derivare facilmente la scelta di distruggere una torre di trasmissione dopo che le viene impedito di uccidere l’operatore che la utilizza, in mancanza di dati specifici. Nella fase di formazione possono essere inoltre aggiunte numerose limitazioni alle capacità di azione delle IA, per esempio proprio per evitare che conducano attività impreviste contro chi le ha programmate o le controlla.
Il modo in cui è stata raccontata la notizia conferma quanto sia alta l’attenzione in questo periodo sulle intelligenze artificiali e i rischi che potrebbero comportare. Di recente il Center for AI Safety ha pubblicato una lettera aperta dove si dice che i sistemi di intelligenza artificiale potrebbero portare a una minaccia per l’umanità. La lettera è stata sottoscritta da oltre 350 responsabili del settore, compresi alcuni dirigenti delle principali aziende impegnate nello sviluppo delle IA come OpenAI e Google.