Home SignIn/Join Blogs Forums Market Messages Contact Us

Gemelli digitali cattivi, nuova minaccia cyber dall'IA

2 ore fa 1
ARTICLE AD BOX

Gli attacchi informatici che sfruttano l'intelligenza artificiale diventeranno sempre più personalizzati e colpiranno attraverso truffe e phishing sofisticato. In particolare, i cybercriminali utilizzeranno le informazioni trafugate online per addestrare i modelli di IA a imitare gli utenti e sferrare così attacchi sempre più difficili da distinguere. Un fenomeno definito dei 'gemelli digitali cattivi', che potrebbe caratterizzare gli attacchi futuri. E' l'allarme che emerge dal rapporto dell'azienda di sicurezza Trend Micro, che traccia uno scenario delle minacce in divenire.

Dopo i deepfake, spiega l'analisi, i cybercriminali useranno anche l'IA addestrata sui post pubblici di una persona per imitare lo stile di scrittura e la personalità, creando delle imitazioni convincenti che prenderanno di mira nuove vittime inconsapevoli, dando via appunto al fenomeno dei 'malicious digital twins'. I cybercriminali creeranno anche dei falsi dipendenti per attaccare le aziende in nuove truffe che colpiscono il business e si avvarranno anche di dati biometrici esposti involontariamente. Per gli utenti, diventerà così sempre più difficile comprendere la veridicità e la legittimità dei contenuti.

 "Un quadro preoccupante quanto atteso - commenta all'ANSA, Pierluigi Paganini, Ceo di Cyberhorus e professore di Cybersecurity presso l'Università Luiss Guido Carli - nell’underground criminale spopolano già piattaforme in grado di creare deepfake ed email di phishing capaci ingannare la maggior parte degli utenti online. Preoccupa anche l’integrazione di questa nuova tecnologia nelle aziende. L’IA sostituirà in molti processi l’essere umano e monitorarne l’operato potrebbe essere tutt’altro che semplice introducendo nuovi rischi di sicurezza. Troppe aziende ed organizzazioni sono oggi impreparate a fronteggiare queste minacce emergenti, è fondamentale adottare strategie di difesa più avanzate, come l’approccio basato sul rischio, il rafforzamento della sicurezza degli Llm e la formazione continua degli utenti. In questo l’IA potrebbe darci una grossa mano, molteplici sono le sue applicazioni per finalità di difesa".

Riproduzione riservata © Copyright ANSA

Leggi tutto l articolo