Le 5 aree in cui l’IA aumenta i rischi cyber
AI agentica, deepfake e bot saranno sempre più all’origine di truffe verso privati e aziende, lanciate su larga scala ma costruite per adattarsi ai casi specifici
I livelli di sviluppo raggiunti dall’intelligenza artificiale trovano ampia applicazione nell’ambito delle frodi informatiche, che si fanno più sofisticate, applicabili su vasta scala e rilevabili con difficoltà. Nel suo report Future of Fraud Forecast 2026, Experian stima in 12,5 miliardi di dollari il costo delle truffe online per i consumatori e in poco meno del 60% la quota di imprese che nel 2024 ha registrato per la stessa ragione un aumento delle perdite.
Sa da un lato l’IA accresce il potenziale delle minacce, dall’altro riesce ad aumentare l’efficienza dei sistemi di difesa, che diventano più performanti e approfonditi nell’analizzare numeri elevatissimi di transazioni. Oltre ai sistemi di rilevamento delle minacce, l’IA rafforza l’analisi predittiva, rendendo così possibile individuare in anticipo le minacce, con vantaggi concreti nella difesa del commercio digitale.
Dall'HR alla domotica
Lo studio individua cinque principali minacce che potranno trarre nuova forza dall’IA e ampliare i rischi per cittadini e imprese. La prima è il caos “machine to machine”, cioè la determinazione di uno stato di incertezza e insicurezza dovuto alla capacità dell’IA agentica di avviare in autonomia interazioni tra le macchine. In questo modo si creano transazioni senza una chiara attribuzione di responsabilità, un clima poco trasparente e caotico ideale per mettere in atto attacchi digitali. Le funzioni di Hr devono alzare la guardia sul reclutamento del personale: grazie a deepfake e IA generativa sarà più semplice falsificare profili e creare candidati fittizi per colloqui a distanza, superati i quali sarà più facile per i malintenzionati entrare nei sistemi dell’azienda. Un terzo punto riguarda la clonazione dei siti web, più rapida e credibile, ideale per chi intende mettere in atto campagne di phishing.
Ma l’allarme è anche sul fronte della vita privata: gli ecosistemi della domotica e della smart home possono rappresentare un varco di accesso a dati personali e al monitoraggio delle abitudini e della quotidianità delle persone. Inoltre, diventano più semplici e credibili le truffe basate sull’ingegneria sociale, con bot lanciati su larga scala a carpire la fiducia (e i conti correnti) di vittime emotivamente vulnerabili.
Lo scenario complesso e minaccioso che emerge da questo quadro rende necessario rafforzare le attività di monitoraggio, rilevamento e difesa, ma è altrettanto importante cambiare l’approccio individuale agli strumenti digitali. Per superare sia i rischi sia la diffidenza degli utenti, le imprese dovranno puntare su una relazione di fiducia, con iniziative che le rendano riconoscibili negli intenti e affidabili nella gestione delle informazioni. Le organizzazioni potranno assumere un ruolo educativo verso la propria utenza, con iniziative e strumenti che aumentino la consapevolezza nell’utilizzo del digitale. Allo stesso modo, è opportuno essere trasparenti nell’utilizzo che viene fatto dell’intelligenza artificiale e creare una comunicazione riconoscibile e di elevata qualità, che si distingua dal “rumore digitale” dei contenuti civetta creati con l’IA.
© RIPRODUZIONE RISERVATA
