Tra le organizzazioni individuate figurano nomi di spicco come SweetSpecter e CyberAv3ngers, gruppi legati rispettivamente alla Cina e all’Iran
L’intelligenza artificiale sta rapidamente diventando uno strumento chiave per molte professioni, semplificando processi complessi e migliorando l’efficienza in numerosi settori. Tuttavia, come avviene spesso con le tecnologie innovative, anche i malintenzionati stanno trovando modi per sfruttarla a loro vantaggio. OpenAI, uno dei principali attori nel campo dell’IA generativa, ha recentemente rivelato che la sua piattaforma, ChatGPT, è stata utilizzata da gruppi di hacker per attività dannose. Questa dichiarazione rappresenta la prima conferma ufficiale del crescente impiego dell’IA da parte di cybercriminali, e mette in luce le sfide legate alla sicurezza in un’epoca in cui la tecnologia avanza rapidamente.
La minaccia emergente: l’uso improprio di ChatGPT
Dall’inizio del 2024, OpenAI ha bloccato oltre 20 operazioni informatiche malevole che utilizzavano ChatGPT. Questo dato è particolarmente preoccupante, poiché dimostra che l’IA generativa, sebbene progettata per scopi positivi, può essere facilmente manipolata da hacker e criminali informatici per scopi offensivi. ChatGPT, infatti, è stato utilizzato per scrivere codice malevolo, diffondere disinformazione e condurre attacchi di phishing. Tra le organizzazioni individuate figurano nomi di spicco come SweetSpecter e CyberAv3ngers, gruppi legati rispettivamente alla Cina e all’Iran, noti per le loro attività di cyberspionaggio e sabotaggio.
I gruppi coinvolti e i loro metodi operativi
SweetSpecter, un gruppo cinese, ha preso di mira direttamente OpenAI attraverso e-mail di phishing inviate ai dipendenti dell’azienda. Queste e-mail contenevano allegati dannosi, e le indagini successive hanno rivelato che il gruppo utilizzava ChatGPT per effettuare ricerche su vulnerabilità di sistema e sviluppare script personalizzati per attacchi mirati. Il loro scopo principale era ottenere informazioni riservate e accedere a risorse sensibili.
CyberAv3ngers, un gruppo affiliato al Corpo delle Guardie Rivoluzionarie Islamiche (IRGC), ha sfruttato ChatGPT per automatizzare molte fasi dei loro attacchi informatici. Tra le loro operazioni vi è la creazione di credenziali predefinite per sistemi programmabili e lo sviluppo di malware con codice offuscato, rendendo più difficile la rilevazione da parte dei software di sicurezza. Il gruppo ha anche utilizzato l’intelligenza artificiale per apprendere tecniche avanzate di furto di password, in particolare su sistemi macOS.
Un altro gruppo menzionato nel rapporto di OpenAI è Storm-0817, anch’esso legato all’Iran. Questo gruppo ha impiegato ChatGPT per attività che vanno dal debugging di malware alla creazione di strumenti per rubare dati da piattaforme social come Instagram. Inoltre, hanno sviluppato un malware personalizzato per Android, capace di rubare informazioni sensibili come contatti, registri di chiamate e file memorizzati sui dispositivi compromessi.
Il ruolo dell’intelligenza artificiale nel potenziare gli attacchi
La capacità dell’intelligenza artificiale di assistere in diverse fasi di un attacco informatico, dalla pianificazione all’esecuzione, ha preoccupato molti esperti di sicurezza. Anche se ChatGPT non ha necessariamente fornito strumenti nuovi per lo sviluppo di malware, la sua facilità d’uso ha reso più accessibili operazioni complesse anche per attori meno esperti. Questa democratizzazione dell’abilità offensiva è uno degli aspetti più allarmanti dell’evoluzione dell’IA nel campo della sicurezza informatica.
Nel corso dell’ultimo anno, diverse aziende specializzate in sicurezza avevano già sollevato preoccupazioni su questo fronte. Proofpoint, ad esempio, aveva segnalato ad aprile l’uso di un loader PowerShell generato dall’IA per distribuire il malware Rhadamanthys, utilizzato per rubare informazioni sensibili. Anche HP Wolf Security ha confermato casi simili, notando che gruppi criminali stavano utilizzando l’IA per orchestrare attacchi multi-fase contro utenti in Francia.
Le misure adottate da OpenAI
In risposta a questi incidenti, OpenAI ha preso misure drastiche, bandendo tutti gli account coinvolti in attività illecite e condividendo informazioni utili, come indirizzi IP e indicatori di compromissione, con i principali partner del settore della sicurezza. Tuttavia, questo non risolve completamente il problema. Mentre OpenAI si impegna a migliorare la sicurezza e prevenire l’abuso delle sue piattaforme, l’uso crescente dell’IA per scopi malevoli rappresenta una sfida costante.