I cyber criminali sviluppano tecniche e tattiche sempre più sofisticate per sferrare attacchi ai loro obiettivi.
Oltre a perfezionare la tecnologia ed i software impiegati, dedicano moltissima attenzione all’affinamento di metodi di ingegneria sociale.
Un aspetto frequentemente trascurato da singoli ed aziende è proprio relativo alla formazione su temi inerenti alla cognitive security. In tal senso, gli esseri umani rappresentano una delle vulnerabilità più facilmente aggirabili, anche senza alcun ricorso alla tecnologia.
Pensando alla sicurezza come ad una catena, l’uomo è fuor di dubbio l’anello più debole. Basti pensare all’elevata percentuale di successo del phishing, forma di attacco perpetrato a mezzo email, per avere dimostrazione di quanto esso sia efficace nel superare le difese esistenti.
In contesti di pervasività tecnologica, è fondamentale comprendere come individuare le vulnerabilità che ci rendono suscettibili ad attacchi.
In ambito cyber security la sicurezza cognitiva si riferisce all’impiego di tecnologie di cognitive computing, machine learning e intelligenza artificiale modellate sui processi di pensiero umano e capaci di difendere i sistemi fisici e digitali da minacce incombenti.
L’attenzione deve farsi più acuta vista la recente nascita di IA conversazionali e di sintesi vocale emozionale che offrono grandi opportunità anche da un punto di vista negativo, inerente al loro potenziale impiego illecito finalizzato all’inganno di interlocutori umani.
La manipolazione di immagini e video operata attraverso l’impiego di strumenti digitali assai potenti e la natura fortemente realistica dei contenuti falsificati, uniti alla disponibilità di una pluralità di canali di disinformazione, fanno dei deep fake un’arma difficile da contrastare.
E’ il momento dunque di bilanciare gli sforzi difensivi evitando di concentrare tutte le risorse esclusivamente su aspetti tecnici ed introducendo una cultura basata sulla consapevolezza delle persone ma anche sistemi di cognitive computing capaci di simulare il processo del pensiero umano in scenari di varia complessità ed incertezza.
Attacchi di tipo deep fake possono essere mirati al furto di credenziali o identità, alle frodi finanziarie ma anche a generare scenari più ampi quali: confusione di massa, cambiamenti dell’opinione pubblica o di risultati elettorali.
Sistemi cognitivi informatizzati esistono già oggi e coadiuvano l’essere umano nelle relazioni (chatbot intelligenti di customer care), nella valutazione dei rischi, rilevamento di frodi e riduzione del gap diagnostico in campo medico.
La sicurezza cognitiva fa uso di processi e algoritmi che consentono, ai sistemi che la impiegano, di prendere rapidamente decisioni sulla base di rilevazioni, elaborazioni e analisi di enormi quantità di informazioni, con identificazione di parametri significativi, correlazioni e tendenze di difficile discernimento umano.
Il concetto di firewall umano punta alla mitigazione delle debolezze dell’uomo, preparandolo ad essere meno suscettibile alla manipolazione, più attento ai contenuti fuorvianti e quindi maggiormente allertato da azioni di hacking cognitivo.
Uno studio dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) stima che circa il…
Critiche per lo spot natalizio 2024 di Coca-Cola, realizzato interamente con intelligenza artificiale: innovazione o…
Scopri le differenze tra ChatGPT, Gemini e Microsoft Copilot: caratteristiche, funzionalità e consigli per scegliere…
L'azienda ha subito commentato quella che può sembrare una vera istigazione al suicidio. Si tratta…
La DeFi permette di effettuare transazioni direttamente tra utenti, prestare o prendere in prestito denaro,…
L'esperimento di Fanpage.it sull'attesissimo incontro che andrà in onda questa notte su Netflix L’attesa è…