Il sud-est asiatico è diventato un epicentro globale di truffe informatiche, dove la frode ad alta tecnologia incontra la tratta di esseri umani. In paesi come la Cambogia e il Myanmar, i sindacati criminali gestiscono operazioni di “macelleria dei maiali”, centri di scamme gestiti da lavoratori trafficati costretti a vittime in mercati più ricchi come Singapore e Hong Kong.
La scala è sbalorditiva: una stima delle Nazioni Unite perdite globali da questi schemi a $ 37 miliardi. E potrebbe presto peggiorare.
L’ascesa del crimine informatico nella regione sta già avendo un effetto sulla politica e sulla politica. La Thailandia ha segnalato un calo dei visitatori cinesi quest’anno, dopo Un attore cinese è stato rapito e costretto a lavorare in un composto di truffa a base del Myanmar; Bangkok è ora lotta Per convincere i turisti è sicuro venire. E Singapore ha appena approvato una legge anti-scam che consente alle forze dell’ordine di congelare i conti bancari delle vittime della truffa.
Ma perché l’Asia è diventata famigerata per il crimine informatico? Ben Goodman, direttore generale di Okta per Asia-Pacifico, nota che la regione offre alcune dinamiche uniche che rendono più facili da realizzare truffe di criminalità informatica. Ad esempio, la regione è un “mercato mobile-primo”: piattaforme popolari di messaggistica mobile come WhatsApp, Line e WeChat aiutano a facilitare una connessione diretta tra il truffatore e la vittima.
L’intelligenza artificiale sta anche aiutando i truffatori a superare la diversità linguistica dell’Asia. Goodman osserva che le traduzioni di macchine, mentre un “caso di utilizzo fenomenale per l’IA”, rendono anche “più facile per le persone essere innescate a fare clic sui collegamenti sbagliati o approvare qualcosa”.
Anche gli stati-nazione sono coinvolti. Goodman indica inoltre le accuse che la Corea del Nord sta utilizzando dipendenti falsi nelle principali aziende tecnologiche per raccogliere intelligence e ottenere denaro necessario nel paese isolato.
Un nuovo rischio: AI “ombra”
Goodman è preoccupato per un nuovo rischio per l’IA sul posto di lavoro: AI “Shadow” o dipendenti che utilizzano account privati per accedere ai modelli di intelligenza artificiale senza supervisione dell’azienda. “Potrebbe essere qualcuno che prepara una presentazione per una revisione aziendale, entra in chatgpt per il proprio account personale e genera un’immagine”, spiega.
Ciò può portare a dipendenti a caricare inconsapevolmente informazioni riservate su una piattaforma di intelligenza artificiale pubblica, creando “potenzialmente molti rischi in termini di perdite di informazioni”.

Per gentile concessione di Okta
L’intelligenza artificiale agente potrebbe anche offuscare i confini tra identità personali e professionali: ad esempio qualcosa di legato alla tua e -mail personale rispetto a quella aziendale. “Come utente aziendale, la mia azienda mi dà un’applicazione da utilizzare e vogliono governare il modo in cui la uso”, spiega.
Ma “non uso mai il mio profilo personale per un servizio aziendale e non uso mai il mio profilo aziendale per il servizio personale”, aggiunge. “La possibilità di delineare chi sei, sia al lavoro che a utilizzare i servizi di lavoro o nella vita e nell’uso dei tuoi servizi personali, è il modo in cui pensiamo all’identità dei clienti rispetto all’identità aziendale.”
E per Goodman, è qui che le cose si complicano. Gli agenti AI hanno il potere di prendere decisioni per conto di un utente, il che significa che è importante definire se un utente agisce a titolo personale o aziendale.
“Se la tua identità umana viene mai rubata, il raggio dell’esplosione in termini di ciò che può essere fatto rapidamente per rubare denaro da te o danneggiare la tua reputazione è molto maggiore”, avverte Goodman.