
Errare è umano; perdonare, divino. Ma quando si tratta di “agenti” di intelligenza artificiale autonomi che assumono compiti precedentemente gestiti dagli esseri umani, qual è il margine di errore?
Al recente Fortune Brainstorming sull’intelligenza artificiale A San Francisco, una tavola rotonda di esperti si è confrontata con questa domanda mentre gli addetti ai lavori hanno condiviso il modo in cui le loro aziende stanno affrontando la sicurezza e la governance, una questione che sta superando sfide ancora più pratiche come i dati e la potenza di elaborazione. Le aziende sono in una corsa per paracadutare agenti di intelligenza artificiale nei loro flussi di lavoro in grado di affrontare le attività in modo autonomo e con poca supervisione umana. Ma molti si trovano ad affrontare un paradosso fondamentale che sta rallentando l’adozione a passo d’uomo: è necessario muoversi velocemente Fiduciaeppure costruire la fiducia richiede molto tempo.
Dev Rishi, direttore generale dell’intelligenza artificiale di Rubrik, è entrato a far parte della società di sicurezza l’estate scorsa dopo la sua acquisizione della sua startup di deep learning AI Predibase. Successivamente, ha trascorso i successivi quattro mesi incontrando dirigenti di 180 aziende. Ha utilizzato queste intuizioni per dividere l’adozione dell’intelligenza artificiale in quattro fasi, ha detto al pubblico di Brainstorm AI. (A livello impostato, l’adozione degli agenti si riferisce alle aziende che implementano sistemi di intelligenza artificiale che funzionano in modo autonomo, anziché rispondere alle richieste.)
Secondo quanto appreso da Rishi, le quattro fasi che ha portato alla luce includono la prima fase di sperimentazione in cui le aziende lavorano duramente sulla prototipazione dei loro agenti e sulla mappatura degli obiettivi che ritengono possano essere integrati nei loro flussi di lavoro. La seconda fase, ha detto Rishi, è la più complicata. È allora che le aziende spostano i loro agenti dai prototipi alla produzione di lavoro formale. La terza fase prevede l’estensione degli agenti autonomi all’intera azienda. Il quarto e ultimo stadio, raggiunto da nessuno con cui Rishi ha parlato, è l’intelligenza artificiale autonoma.
Circa la metà delle 180 aziende erano in fase di sperimentazione e prototipazione, ha scoperto Rishi, mentre il 25% era al lavoro per formalizzare i propri prototipi. Un altro 13% si stava espandendo e il restante 12% non aveva avviato alcun progetto di intelligenza artificiale. Tuttavia, Rishi prevede un cambiamento drammatico per il futuro: nei prossimi due anni, quelli nella fascia del 50% prevedono che passeranno alla fase due, secondo le loro tabelle di marcia.
“Penso che vedremo molta adozione molto rapidamente”, ha detto Rishi al pubblico.
Tuttavia, ha osservato, c’è un grosso rischio che impedisce alle aziende di agire “rapidamente e duramente”, quando si tratta di accelerare l’implementazione degli agenti IA nella forza lavoro. Questo rischio – e il principale ostacolo a un più ampio dispiegamento di agenti – è la sicurezza e la governance, ha affermato. E per questo motivo, le aziende faticano a passare dall’utilizzo di agenti utilizzati per il recupero della conoscenza ad agenti orientati all’azione.
“Il nostro obiettivo in realtà è accelerare la trasformazione dell’intelligenza artificiale”, ha affermato Rishi. “Penso che il fattore di rischio numero uno, il collo di bottiglia numero uno, sia il rischio (in sé).”
Integrazione degli agenti nel mondo del lavoro
Kathleen Peters, capo ufficio innovazione presso Esperiano che guida la strategia di prodotto, ha affermato che il rallentamento è dovuto alla non piena comprensione dei rischi quando gli agenti dell’intelligenza artificiale oltrepassano i guardrail che le aziende hanno messo in atto e le misure di sicurezza necessarie quando ciò accade.
“Se qualcosa va storto, se c’è un’allucinazione, se c’è un’interruzione di corrente, a cosa possiamo ricorrere?” si è chiesta. “È una di quelle cose per cui alcuni dirigenti, a seconda del settore, vogliono capire ‘Come ci sentiamo al sicuro?'”
Capire che questo aspetto sarà diverso per ogni azienda e sarà probabilmente particolarmente spinoso per le aziende che operano in settori altamente regolamentati, ha osservato. Chandhu Nair, vicepresidente senior per dati, intelligenza artificiale e innovazione presso Lowe’s, rivenditore di articoli per la casa, ha osservato che è “abbastanza facile” creare agenti, ma le persone non capiscono cosa sono: sono dipendenti digitali? È una forza lavoro? Come verrà inserito nel tessuto organizzativo?
“È quasi come assumere un intero gruppo di persone senza una funzione HR”, ha affermato Nair. “Quindi abbiamo molti agenti, senza alcun modo per mapparli correttamente, e questo è stato l’obiettivo.”
L’azienda ha lavorato su alcune di queste domande, incluso chi potrebbe essere responsabile se qualcosa va storto. “È difficile rintracciarlo”, ha detto Nair.
Peters di Experian ha previsto che nei prossimi anni molte di queste domande verranno affrontate in pubblico, anche se le conversazioni si svolgeranno simultaneamente a porte chiuse nei consigli di amministrazione e tra i comitati senior di compliance e strategia.
“In realtà penso che succederà qualcosa di brutto”, ha detto Peters. “Ci saranno violazioni. Ci saranno agenti che si comporteranno in modi inaspettati. E questi costituiranno titoli molto interessanti nelle notizie.”
Grandi esplosioni susciteranno molta attenzione, ha continuato Peters, e il rischio reputazionale sarà in gioco. Ciò costringerà a discutere scomodamente su dove risiedono le responsabilità relative a software e agenti, e tutto ciò probabilmente si aggiungerà a una maggiore regolamentazione, ha affermato.
“Penso che questo farà parte della nostra gestione complessiva del cambiamento sociale nel pensare a questi nuovi modi di lavorare”, ha detto Peters.
Tuttavia, ci sono esempi concreti di come l’intelligenza artificiale possa avvantaggiare le aziende quando viene implementata in modi che abbiano risonanza con dipendenti e clienti.
Nair ha affermato che Lowe’s ha riscontrato una forte adozione e un ritorno sugli investimenti “tangibile” dall’intelligenza artificiale che ha incorporato finora nelle operazioni dell’azienda. Ad esempio, tra i suoi 250.000 punti vendita, ciascuno ha un agente con una vasta conoscenza del prodotto nei suoi negozi di 100.000 piedi quadrati che vendono di tutto, dalle apparecchiature elettriche, alle vernici, alle forniture idrauliche. Molti dei nuovi arrivati nella forza lavoro di Lowe non sono commercianti, ha detto Nair, e gli agenti associati sono diventati la “tecnologia adottata più velocemente” finora.
“Era importante individuare i casi d’uso corretti che fossero realmente in sintonia con il cliente”, ha affermato. In termini di promozione della gestione del cambiamento nei negozi, “se il prodotto è buono e può aggiungere valore, l’adozione va alle stelle”.
Chi sta guardando l’agente?
Ma per coloro che lavorano presso la sede centrale, le tecniche di gestione del cambiamento devono essere diverse, ha aggiunto, il che aumenta la complessità.
E molte aziende sono bloccate su un’altra domanda iniziale, ovvero se dovrebbero costruire i propri agenti o fare affidamento sulle capacità di intelligenza artificiale sviluppate dai principali fornitori di software.
Rakesh Jain, direttore esecutivo per il cloud e l’ingegneria dell’intelligenza artificiale presso il sistema sanitario Generale Brigham della Messaha affermato che la sua organizzazione sta adottando un approccio attendista. Con le principali piattaforme come SalesforceGiornata lavorativa e ServiceNow costruendo i propri agenti, potrebbe creare ridondanze se la sua organizzazione costruisse i propri agenti allo stesso tempo.
“Se ci sono lacune, allora vogliamo costruire i nostri agenti”, ha detto Jain. “Altrimenti, faremmo affidamento sull’acquisto degli agenti che i venditori di prodotti stanno costruendo.”
Nel settore sanitario, Jain ha affermato che esiste un bisogno fondamentale di supervisione umana data l’elevata posta in gioco.
“La complessità del paziente non può essere determinata attraverso algoritmi”, ha affermato. “Ci deve essere un essere umano coinvolto in questo.” Nella sua esperienza, gli agenti possono accelerare il processo decisionale, ma gli esseri umani devono dare il giudizio finale, con i medici che convalidano tutto prima che venga intrapresa qualsiasi azione.
Tuttavia, Jain vede anche un enorme potenziale di crescita man mano che la tecnologia matura. In radiologia, ad esempio, un agente addestrato sulla competenza di più medici potrebbe individuare tumori in tessuti densi che un singolo radiologo potrebbe non individuare. Ma anche con agenti addestrati su più medici, “devi comunque avere un giudizio umano”, ha detto Jain.
E la minaccia di un intervento eccessivo da parte di un agente che dovrebbe essere un’entità fidata è sempre presente. Ha paragonato un agente canaglia a una malattia autoimmune, che è una delle condizioni più difficili da diagnosticare e trattare per i medici perché la minaccia è interna. Se un agente all’interno di un sistema “diventa corrotto”, ha detto, “causerà danni ingenti che le persone non sono state in grado di quantificare realmente”.
Nonostante le domande aperte e le sfide incombenti, Rishi afferma che esiste una strada da percorrere. Ha identificato due requisiti per creare fiducia negli agenti. In primo luogo, le aziende hanno bisogno di sistemi che diano la certezza che gli agenti operino entro i limiti delle politiche. In secondo luogo, hanno bisogno di politiche e procedure chiare per quando le cose inevitabilmente andranno male: una politica efficace. Nair, inoltre, ha aggiunto tre fattori per creare fiducia e procedere in modo intelligente: identità, responsabilità e sapere chi è l’agente; valutare quanto sia coerente la qualità dell’output di ciascun agente; e, esaminando la traccia post mortem che può spiegare perché e quando si sono verificati gli errori.
“I sistemi possono commettere errori, proprio come possono farlo anche gli esseri umani”, ha affermato Nair. “Ma poter spiegare e recuperare è altrettanto importante.”
