Al giorno d’oggi l’intelligenza artificiale è ovunque, e ciò significa che lo è anche il rischio dell’intelligenza artificiale.
Tra le società S&P 500, il 72% ha menzionato l’intelligenza artificiale come a rischio materiale sul modulo 10-K di quest’anno, ha rilevato il Conference Board, in aumento rispetto al 58% dell’anno scorso e al 12% nel 2023. Il cambiamento riflette il modo in cui l’uso dell’intelligenza artificiale all’interno delle aziende è maturato da sperimentale a diffuso, ha scritto l’organizzazione in un rapporto. (Il rapporto del Conference Board definisce l'”intelligenza artificiale” in modo ampio, includendo non solo i LLM ma anche la robotica, l’automazione, l’apprendimento automatico e altri tipi di intelligenza artificiale.)
Le aziende che con maggiore probabilità hanno rivelato il rischio legato all’intelligenza artificiale sono state quelle dei settori “adottanti in prima linea”, come ad esempio finanza, Assistenza sanitariaindustriale, ESSOe settori dei beni di consumo voluttuari.
Le società S&P erano le più preoccupate per i rischi reputazionali dell’intelligenza artificiale, ha riferito il Conference Board; Il 38% di loro ha rivelato potenziali minacce alla reputazione derivanti dall’intelligenza artificiale durante i loro 10-K. Quarantacinque aziende hanno menzionato rischi di “implementazione e adozione”, come fare promesse eccessive su progetti di intelligenza artificiale o l’intelligenza artificiale non soddisfare le aspettative, mentre 42 hanno affermato che l’intelligenza artificiale rivolta ai consumatori rappresenta un rischio. Altri rischi reputazionali menzionati dalle aziende includono rischi per la privacy e i dati, allucinazioni, minacce competitive e problemi di parzialità e correttezza.
Una società S&P su cinque ha menzionato le minacce alla sicurezza informatica legate all’intelligenza artificiale come un rischio nelle dichiarazioni annuali. Mentre 40 aziende hanno semplicemente affermato che la sicurezza informatica in generale rappresenta un rischio, 18 hanno denunciato i rischi di terze parti o fornitori e 17 hanno affermato che violazioni dei dati erano un rischio.
Anche le aziende hanno previsto potenziali rischi di conformità dall’AI. Quarantuno hanno indicato “l’evoluzione della regolamentazione e l’incertezza” come un’area di rischio, e alcuni hanno fatto specifico riferimento alla legge UE sull’intelligenza artificiale, che prevede pesanti sanzioni in caso di mancata conformità.
Questo rapporto è stato originariamente pubblicato di Direttore Finanziario Brew.