Con una nuova capacità di intelligenza artificiale dopo l’altra entrata nel mainstream, è allettante dare a ciascuno la stessa considerazione superficiale. Ma alcuni meritano più attenzione di altri.
Considera i profondi AI. I truffatori possono ora usare strumenti generativi-AI per creare voci o persino falsi video in diretta, che suonano o sembrano persone specifiche e richiedere trasferimenti di denaro. In quanto tale, esiste un rischio “significativo” di tali capacità “rompere i sistemi di fiducia e identità su cui si basa tutta la nostra economia”, ha affermato Emily Chiu, CEO della startup FinTech Novo con sede a Miami, presso FortunaIl vertice delle donne più potenti a Riyadh, in Arabia Saudita, la scorsa settimana.
Frode alimentare
Ha citato un caso a Hong Kong l’anno scorso in cui era un dipendente finanziario Duppato nel trasferimento di oltre $ 25 milioni ai truffatori. Il dipendente, nonostante sia scettico dopo aver ricevuto una richiesta di posta elettronica per i fondi, è stato attirato in un Zoom Chiama in cui nessun altro era reale, anche se sembravano e suonavano come il CFO con sede nel Regno Unito dell’azienda e altri dirigenti.
Un funzionario di polizia che indaga sul caso detto i media locali Che mentre le truffe precedenti avevano coinvolto videochiamate individuali, “Questa volta, in una videoconferenza multi-persona, si scopre che tutti quelli che vedi sono falsi”.
Eppure sofisticato quanto la tecnologia AI alla base di tali truffe, è relativamente facile accedere e utilizzare.
“L’accessibilità del pubblico di questi servizi ha ridotto la barriera di ingresso per i criminali informatici: non hanno più bisogno di avere speciali set di abilità tecnologiche”, David Fairman, Chief Security Officer della società di sicurezza informatica Netskope, ha detto alla CNBC.
Arup, una società di ingegneria del Regno Unito, in seguito ha confermato che era stata la vittima nell’attacco.
“Come molte altre aziende in tutto il mondo, le nostre operazioni sono soggette a attacchi regolari, tra cui frodi fatture, truffe di phishing, spoofing della voce di WhatsApp e profondi”, ” disse Arup Cio Rob Greig in una dichiarazione. “Questo è un problema, affari e sociali e spero che la nostra esperienza possa aiutare a sensibilizzare sulla crescente sofisticazione e le tecniche in evoluzione dei cattivi attori”.
Minaccia in corso
Il Centro per i servizi finanziari di Deloitte ha recentemente ponderato la questione, affermando“L’intelligenza artificiale generativa dovrebbe aumentare significativamente la minaccia di frode, che potrebbe costare le banche e i loro clienti fino a 40 miliardi di dollari entro il 2027.”
Chiu ha detto che l’incidente di Hong Kong mostra che “ci incontreremo in un mondo in cui la nostra capacità di fidarsi e convalidare ciò che è reale – il sistema di fiducia su cui si basa il commercio, su cui FinTech si basa – sarà una vera sfida”.
Naturalmente, ciò presenta opportunità per le aziende che possono trovare soluzioni efficaci a questo problema, “ma non è ancora una situazione risolta”, ha detto Chiu. “Quindi, è qualcosa per cui sarei alla ricerca … anche se sei fuori da fintech.”
Questa storia era originariamente presente su Fortune.com