Mentre la deepfake tech diventa sempre più sofisticata, Towergate avverte le aziende di prepararsi a una nuova ondata di inganni digitali
Towergate Insurance ha lanciato un avvertimento alle aziende sui rischi crescenti della tecnologia di intelligenza artificiale (AI) e del deepfake. Le ha esortate ad adottare misure proattive per proteggersi da frodi, danni alla reputazione e crimini informatici.
I criminali informatici utilizzano sempre più spesso i deepfake – immagini, video e file audio sintetici altamente realistici – per impersonare persone e infiltrarsi nelle organizzazioni.
Recenti incidenti hanno mostrato il potenziale allarmante di queste tecnologie. I criminali informatici si sono spacciati per il loro direttore finanziario in una chat video per ingannare un dipendente della finanza e fargli trasferire 25 milioni di dollari. In un altro caso, la voce falsa è stata utilizzata per convincere un dipendente a fornire un codice per l’autenticazione a più fattori.
Marc Rocker ha spiegato che la linea di demarcazione tra falso e reale è pericolosamente confusa, dato che l’intelligenza artificiale continua a svilupparsi a ritmo sostenuto. Non è fantascienza. Sta accadendo proprio ora e le aziende devono essere vigili. L’intelligenza artificiale viene utilizzata sia per attaccare che per difendersi. La capacità di distinguere tra contenuti veri e falsi è diventata una parte fondamentale della mitigazione del rischio informatico.
I broker assicurativi incoraggiano le aziende ad adottare solidi protocolli di sicurezza informatica. Questi includono una formazione regolare dei dipendenti, strumenti di rilevamento dell’intelligenza artificiale e procedure di autenticazione forti. Towergate sottolinea inoltre l’importanza di una copertura assicurativa completa per ridurre al minimo i danni finanziari e di reputazione causati da tali attacchi.
Rocker ha affermato che l’assicurazione informatica non si limita a coprire le perdite. Si tratta di aiutare le aziende a riprendersi e a continuare a operare dopo un incidente. Poiché i criminali informatici diventano sempre più sofisticati, questa rete di sicurezza è più vitale che mai.
Rocker sottolinea che l’IA viene utilizzata in modi sempre più creativi. Ad esempio, O2 ha una “nonna AI” che impedisce ai truffatori di chiamare. Tuttavia, mette in guardia dal lasciare che queste innovazioni ci distraggano dai pericoli reali.
Il responsabile Cyber di Towergate sottolinea anche alcuni dei principali segnali di un falso: “Un battito di ciglia innaturale, una pelle troppo liscia, una luce incoerente e una pixelatura che circonda i tratti del viso sono tutti elementi da tenere d’occhio”. Le aziende dovrebbero istruire i propri dipendenti su questi segnali di pericolo e trattare con cautela qualsiasi comunicazione audio o video inaspettata.
Questo articolo è stato pubblicato per la prima volta su Human Resources News.