Tra i tanti utilizzi che si fanno dell’Intelligenza artificiale, se ne stanno sviluppando alcuni non proprio conformi alla legge e che rispecchiano le caratteristiche di veri e propri crimini. Nell’ultimo periodo, si sta discutendo parecchio, infatti, dei pericoli a cui si può andare incontro a causa dell’Ia e dell’uso poco regolamentato di questo strumento in continuo ampliamento. L’FBI, ha rilevato diversi crimini commessi dall’Intelligenza artificiale, utilizzata addirittura per produrre foto di nudo di persone inconsapevoli con l’obiettivo di chiedere alle stesse, somme di denaro per evitarne la diffusione. L’Intelligenza artificiale è sempre più accurata e precisa e grazie al suo aiuto si riescono a realizzare fake sempre più realistici.
I cybercriminali praticano una vera e propria estorsione sessuale, minacciando le vittime di condividere i contenuti con i loro amici o familiari se non viene pagato un riscatto (somma di denaro o altre richieste). Oggi, utilizzando le capacità dell’intelligenza artificiale, si riescono, (anche gratuitamente) a generare deepfake, a partire da foto o video pubblicate da utenti sui loro account social.
Recentemente l’FBI e ricercatori inglesi, hanno evidenziato un forte abuso dell’Ia, con casi soprattutto di sextortion e ghostbot, sollecitando un allarme dopo le tante segnalazioni ricevute, e fornendo alcuni consigli per evitare di correre rischi. Il fenomeno del ghostbot è legato all’utilizzo di software, in grado di generare reincarnazioni digitali di persone defunte dai dati personali e impronte digitali presenti sui social media. Le immagini appaiono abbastanza realistiche e in alcuni casi sono stati presi di mira anche i bambini. Un esempio è legato a un ologramma del defunto Robert Kardashian, generato dalla tecnologia deepfake e regalato a Kim Kardashian da Kanye West nel 2020. Il contenuto creato dall’Ia è stato prodotto con l’utilizzo delle caratteristiche del padre e ha parlato con la sua voce.
L’FBI afferma: “I progressi tecnologici stanno migliorando continuamente la qualità, la personalizzazione e l’accessibilità della creazione di contenuti abilitati all’intelligenza artificiale“. Una ricerca della “Queen’s University” ha messo in luce i pericoli derivati dalla mancanza di leggi sulla protezione dei dati, che causa un crescente abuso di ghostbot.
Ecco quali consigli fornisce l’FBI per proteggersi dalla sextortion:
Pur proponendo alcuni passi avanti dal punto di vista tecnico, la console sembra essere destinata…
Alcuni proprietari di immobili, che vivono in California, stanno sfocando le proprie abitazioni su Google…
Negli ultimi anni sono aumentate le truffe online e anche quelle tramite messaggistica: gli imbroglioni…
Dopo il lancio disastroso, il numero di utenti attivi è calato sempre di più e…
Il nostro Paese tra i primi a utilizzare l'intelligenza artificiale nel campo dell'imprenditoria. Ma le…
Definendo un nuovo standard per la privacy nell’AI, Apple Intelligence capisce il contesto personale per…