Tra i tanti utilizzi che si fanno dell’Intelligenza artificiale, se ne stanno sviluppando alcuni non proprio conformi alla legge e che rispecchiano le caratteristiche di veri e propri crimini. Nell’ultimo periodo, si sta discutendo parecchio, infatti, dei pericoli a cui si può andare incontro a causa dell’Ia e dell’uso poco regolamentato di questo strumento in continuo ampliamento. L’FBI, ha rilevato diversi crimini commessi dall’Intelligenza artificiale, utilizzata addirittura per produrre foto di nudo di persone inconsapevoli con l’obiettivo di chiedere alle stesse, somme di denaro per evitarne la diffusione. L’Intelligenza artificiale è sempre più accurata e precisa e grazie al suo aiuto si riescono a realizzare fake sempre più realistici.
I cybercriminali praticano una vera e propria estorsione sessuale, minacciando le vittime di condividere i contenuti con i loro amici o familiari se non viene pagato un riscatto (somma di denaro o altre richieste). Oggi, utilizzando le capacità dell’intelligenza artificiale, si riescono, (anche gratuitamente) a generare deepfake, a partire da foto o video pubblicate da utenti sui loro account social.
Recentemente l’FBI e ricercatori inglesi, hanno evidenziato un forte abuso dell’Ia, con casi soprattutto di sextortion e ghostbot, sollecitando un allarme dopo le tante segnalazioni ricevute, e fornendo alcuni consigli per evitare di correre rischi. Il fenomeno del ghostbot è legato all’utilizzo di software, in grado di generare reincarnazioni digitali di persone defunte dai dati personali e impronte digitali presenti sui social media. Le immagini appaiono abbastanza realistiche e in alcuni casi sono stati presi di mira anche i bambini. Un esempio è legato a un ologramma del defunto Robert Kardashian, generato dalla tecnologia deepfake e regalato a Kim Kardashian da Kanye West nel 2020. Il contenuto creato dall’Ia è stato prodotto con l’utilizzo delle caratteristiche del padre e ha parlato con la sua voce.
L’FBI afferma: “I progressi tecnologici stanno migliorando continuamente la qualità, la personalizzazione e l’accessibilità della creazione di contenuti abilitati all’intelligenza artificiale“. Una ricerca della “Queen’s University” ha messo in luce i pericoli derivati dalla mancanza di leggi sulla protezione dei dati, che causa un crescente abuso di ghostbot.
Ecco quali consigli fornisce l’FBI per proteggersi dalla sextortion:
Niantic sviluppa un modello di intelligenza artificiale geospaziale basato su dati di gioco: innovazione, applicazioni…
Uno studio dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) stima che circa il…
Guida al Black Friday 2024: scopri come sfruttare le offerte in modo intelligente, evitando trappole…
Critiche per lo spot natalizio 2024 di Coca-Cola, realizzato interamente con intelligenza artificiale: innovazione o…
Scopri le differenze tra ChatGPT, Gemini e Microsoft Copilot: caratteristiche, funzionalità e consigli per scegliere…
L'azienda ha subito commentato quella che può sembrare una vera istigazione al suicidio. Si tratta…