I CFO sono in un sottaceto. Il lato di efficienza del loro cervello vuole incorporare l’intelligenza artificiale, ma i lati di rischio lampeggiano in rosso.
Un nuovoSondaggio da Kyribauna piattaforma di intelligenza artificiale finanziaria, ha intervistato 1.000 CFO e ha riscontrato che il 96% sta dando la priorità all’integrazione dell’intelligenza artificiale, anche se molti hanno ancora importanti preoccupazioni nel farlo.
L’intelligenza artificiale funziona spesso come una “scatola nera”, creando incertezza su come arriva alle sue uscite finali. Inoltre, ci sono preoccupazioni riguardo alla privacy e alla sicurezza dei dati, nonché alla conformità dell’IA.
Ma anche con questi rischi, sembra che la promessa di una migliore efficienza sia vincere; secondo lo studio, l’86% dei CFO sta già usando l’IA in alcuni o nella maggior parte degli aspetti del loro lavoro.
Quindi, come dovrebbero prepararsi le aziende e i CFO per l’adozione dall’IA per mitigare il rischio?
Scatola nera.Secondo Bob Stark, responsabile globale dell’abilitazione di Kyriba, ci sono modi per combattere queste preoccupazioni che potrebbero alleviare il comfort dei CFO con l’integrazione dell’IA.
“Ogni CFO con cui parliamo, dicono la stessa cosa”, ha detto. “” Devono essere i nostri dati. (Abbiamo) dobbiamo capire come funziona e dobbiamo garantire che gli output siano i nostri e solo i nostri e che possano lavorare all’interno della (nostra) politica dell’organizzazione. “”
Mentre anche alcuni Building ingegneri del software L’intelligenza artificiale potrebbe non capire del tutto come funziona, i prodotti AI potrebbero almeno essere più aperti sul loro lavoro in modo che i CFO possano convalidare indipendentemente le uscite, secondo Stark. Dal punto di vista della sicurezza, dovrebbero esserci dei guardrail nei prodotti AI a pagamento che possono essere attivati per evitare che i dati vengano salvati, utilizzati per formare modelli o esposti ad altri, ha aggiunto.
SecondoGlenn Hopperresponsabile della ricerca e del design dell’IA presso Eventus Advisory Group, le stesse regole di sicurezza per i servizi come GoogleSnowflake o AWS dovrebbe applicarsi alle versioni aziendali dei prodotti AI.
“I problemi di sicurezza sono rimasti un po ‘esagerati”, ha detto. “Il pericolo per i dati caricati nei modelli è molto facile da superare.”
Per quanto riguarda la conformità, un’industria che non è nota per muoversi rapidamente potrebbe dover fare se vuole tenere il passo con la proliferazione dell’IA e mettersi di fronte a questi rischi, secondo Hopper.
Conosci i tuoi obiettivi.Prima di distribuire l’IA, Stark raccomanda ai CFO di capire davvero quali sono i loro obiettivi. Ad esempio, l’IA potrebbe aiutare con i processi di gestione dell’esposizione, copertura e contabilità, secondo Stark.
Dopo aver identificato gli obiettivi per l’uso dell’intelligenza artificiale, la sua precisione dovrebbe essere testata. Stark suggerisce di iniziare confrontando i metodi precedenti di previsione con i nuovi risultati basati sull’intelligenza artificiale.
“Questo è il tipo di viaggio che può aiutare a costruire la fiducia”, ha detto.
Crea una politica e forma i dipendenti.Una volta che le organizzazioni sono chiare sull’ambito del lavoro dell’intelligenza artificiale, può lanciarlo ai dipendenti con politiche chiare e una formazione approfondita.
Hopper consiglia ai CFO di lavorare con il senior management per creare politiche di utilizzo dell’IA su cui tutti possono essere d’accordo, che dovrebbero indicare quali dipendenti dei sistemi di intelligenza artificiale possono usare, cosa è permesso caricare, come usarlo e quando integrare un essere umano nel processo. Stark esorta anche le aziende a spiegare come sarebbe effettivamente la conformità nella politica.
L’intelligenza artificiale è più flessibile degli strumenti tradizionali, secondo Hopper. I manager dicono ai dipendenti come utilizzare pacchetti software tradizionali, mentre con AI, i dipendenti modelleranno il modo in cui gli strumenti vengono utilizzati sul posto di lavoro.
“Stanno per capire da soli come automatizzare parti del loro lavoro”, ha detto. “E vuoi che sia all’aperto. Perché se è all’aperto e qualcuno lo sta usando in modo improprio, puoi capirlo. Non vuoi che le persone ne abbiano paura, ma non vuoi che siano sconsiderate.”
Hopper chiede una formazione di base sull’ingegneria rapida, delineando compiti specifici più adatti per l’IA, spiegando come verificare i dati e verificare le allucinazioni con un lancio strutturato dei dipendenti.
“Nella finanza, non prevediamo che i ruoli vengano sostituiti, ma riconosciamo che le persone con AI possono sostituire le persone che non hanno AI”, ha detto Stark.
Questo rapporto era Originariamente pubblicato di CFO Brew.
Questa storia era originariamente presente su Fortune.com