OpenAI+ammette%3A+%26%238220%3BChatGPT+pu%C3%B2+essere+usato+anche+per+sviluppare+malware%26%238221%3B
cryptohackit
/openai-ammette-chatgpt-puo-essere-usato-anche-per-sviluppare-malware/amp/
Intelligenza Artificiale

OpenAI ammette: “ChatGPT può essere usato anche per sviluppare malware”

Tra le organizzazioni individuate figurano nomi di spicco come SweetSpecter e CyberAv3ngers, gruppi legati rispettivamente alla Cina e all’Iran

L’intelligenza artificiale sta rapidamente diventando uno strumento chiave per molte professioni, semplificando processi complessi e migliorando l’efficienza in numerosi settori. Tuttavia, come avviene spesso con le tecnologie innovative, anche i malintenzionati stanno trovando modi per sfruttarla a loro vantaggio. OpenAI, uno dei principali attori nel campo dell’IA generativa, ha recentemente rivelato che la sua piattaforma, ChatGPT, è stata utilizzata da gruppi di hacker per attività dannose. Questa dichiarazione rappresenta la prima conferma ufficiale del crescente impiego dell’IA da parte di cybercriminali, e mette in luce le sfide legate alla sicurezza in un’epoca in cui la tecnologia avanza rapidamente.

La minaccia emergente: l’uso improprio di ChatGPT

Dall’inizio del 2024, OpenAI ha bloccato oltre 20 operazioni informatiche malevole che utilizzavano ChatGPT. Questo dato è particolarmente preoccupante, poiché dimostra che l’IA generativa, sebbene progettata per scopi positivi, può essere facilmente manipolata da hacker e criminali informatici per scopi offensivi. ChatGPT, infatti, è stato utilizzato per scrivere codice malevolo, diffondere disinformazione e condurre attacchi di phishing. Tra le organizzazioni individuate figurano nomi di spicco come SweetSpecter e CyberAv3ngers, gruppi legati rispettivamente alla Cina e all’Iran, noti per le loro attività di cyberspionaggio e sabotaggio.

I gruppi coinvolti e i loro metodi operativi

SweetSpecter, un gruppo cinese, ha preso di mira direttamente OpenAI attraverso e-mail di phishing inviate ai dipendenti dell’azienda. Queste e-mail contenevano allegati dannosi, e le indagini successive hanno rivelato che il gruppo utilizzava ChatGPT per effettuare ricerche su vulnerabilità di sistema e sviluppare script personalizzati per attacchi mirati. Il loro scopo principale era ottenere informazioni riservate e accedere a risorse sensibili.

CyberAv3ngers, un gruppo affiliato al Corpo delle Guardie Rivoluzionarie Islamiche (IRGC), ha sfruttato ChatGPT per automatizzare molte fasi dei loro attacchi informatici. Tra le loro operazioni vi è la creazione di credenziali predefinite per sistemi programmabili e lo sviluppo di malware con codice offuscato, rendendo più difficile la rilevazione da parte dei software di sicurezza. Il gruppo ha anche utilizzato l’intelligenza artificiale per apprendere tecniche avanzate di furto di password, in particolare su sistemi macOS.

Un altro gruppo menzionato nel rapporto di OpenAI è Storm-0817, anch’esso legato all’Iran. Questo gruppo ha impiegato ChatGPT per attività che vanno dal debugging di malware alla creazione di strumenti per rubare dati da piattaforme social come Instagram. Inoltre, hanno sviluppato un malware personalizzato per Android, capace di rubare informazioni sensibili come contatti, registri di chiamate e file memorizzati sui dispositivi compromessi.

Il ruolo dell’intelligenza artificiale nel potenziare gli attacchi

La capacità dell’intelligenza artificiale di assistere in diverse fasi di un attacco informatico, dalla pianificazione all’esecuzione, ha preoccupato molti esperti di sicurezza. Anche se ChatGPT non ha necessariamente fornito strumenti nuovi per lo sviluppo di malware, la sua facilità d’uso ha reso più accessibili operazioni complesse anche per attori meno esperti. Questa democratizzazione dell’abilità offensiva è uno degli aspetti più allarmanti dell’evoluzione dell’IA nel campo della sicurezza informatica.

Foto | Unsplash / BoliviaInteligente – Cryptohack.it

Nel corso dell’ultimo anno, diverse aziende specializzate in sicurezza avevano già sollevato preoccupazioni su questo fronte. Proofpoint, ad esempio, aveva segnalato ad aprile l’uso di un loader PowerShell generato dall’IA per distribuire il malware Rhadamanthys, utilizzato per rubare informazioni sensibili. Anche HP Wolf Security ha confermato casi simili, notando che gruppi criminali stavano utilizzando l’IA per orchestrare attacchi multi-fase contro utenti in Francia.

Le misure adottate da OpenAI

In risposta a questi incidenti, OpenAI ha preso misure drastiche, bandendo tutti gli account coinvolti in attività illecite e condividendo informazioni utili, come indirizzi IP e indicatori di compromissione, con i principali partner del settore della sicurezza. Tuttavia, questo non risolve completamente il problema. Mentre OpenAI si impegna a migliorare la sicurezza e prevenire l’abuso delle sue piattaforme, l’uso crescente dell’IA per scopi malevoli rappresenta una sfida costante.

Andrea Zoccolan

Recent Posts

Sextortion, Instagram ha annunciato nuovi strumenti per proteggere i teenager

Meta continua a sviluppare misure per proteggere i minorenni su Instagram: ecco tutto ciò che…

26 minuti ago

Trump è un supereroe nelle figurine da collezione NFT

Non è la prima volta che Trump si lancia nel mercato degli NFT, probabilmente per…

21 ore ago

Smart Mirror: lo specchio intelligente che rivoluzionerà l’esperienza d’acquisto

Sta per arrivare uno specchio intelligente che cambierà per sempre le vostre abitudini d’acquisto, ecco…

2 giorni ago

Un uomo fa causa alla città di Newport per aver perso quasi 8.000 Bitcoin nella discarica

L'uomo ha spiegato: "Tutto questo potrebbe valere miliardi. È il tipo di denaro che fa…

3 giorni ago

TikTok crea dipendenza? Ecco cosa è emerso da alcune informazioni secretate

Sono emerse informazioni riservate che potrebbero aggravare la posizione dei dirigenti di TikTok in merito…

3 giorni ago

Come si può investire nel metaverso? Ecco 5 idee

Il metaverso continua a suscitare molto interesse, ma come ci si può investire? Vediamo tutto…

3 giorni ago