
I chatbot con intelligenza artificiale sono stati esaminati attentamente per i rischi per la salute mentale derivanti dagli utenti che sviluppano relazioni con la tecnologia o usarli per la terapia o supporto durante le crisi acute di salute mentale. Mentre le aziende rispondono alle critiche degli utenti e degli esperti, uno dei nuovi leader di OpenAI afferma che la questione è in prima linea nel suo lavoro.
Questo maggio, Fidji Simo, a Meta allume, era assunto come CEO delle applicazioni di OpenAI. Incaricata di gestire qualsiasi cosa al di fuori dell’ambito di ricerca e dell’infrastruttura informatica del CEO Sam Altman per i modelli di intelligenza artificiale dell’azienda, ha descritto in dettaglio un netto contrasto tra il lavoro presso l’azienda tecnologica guidata da Mark Zuckerberg e quello di Altman in un Cablato colloquio pubblicato lunedì.
“Direi che la cosa che non credo che abbiamo fatto bene a Meta è in realtà anticipare i rischi che i nostri prodotti creerebbero nella società”, ha detto Simo Cablato. “In OpenAI, questi rischi sono molto reali.”
Meta non ha risposto immediatamente Fortunarichiesta di commento.
Simo ha lavorato per un decennio a Meta, mentre era ancora conosciuto come Facebook, dal 2011 a luglio 2021. Negli ultimi due anni e mezzo, ha diretto l’app Facebook.
Nell’agosto 2021, Simo divenne amministratore delegato del servizio di consegna della spesa Instagram. Ha guidato l’azienda per quattro anni prima di entrare in una delle startup più preziose al mondo come CEO secondario ad agosto.
Una delle prime iniziative di Simo a OpenAI è stata la salute mentale, ha raccontato il quarantenne Cablato. L’altra iniziativa che le è stata affidata è stata il lancio del programma di certificazione dell’intelligenza artificiale dell’azienda per aiutare a rafforzare le competenze dell’intelligenza artificiale dei lavoratori in un mercato del lavoro competitivo e cercare di attenuare l’interruzione dell’intelligenza artificiale all’interno dell’azienda.
“Quindi è una responsabilità molto grande, ma sento che abbiamo sia la cultura che le priorità per affrontarle davvero in anticipo”, ha detto Simo.
Quando si è unita al colosso della tecnologia, Simo ha affermato che semplicemente guardando il panorama, si è immediatamente resa conto che la salute mentale doveva essere affrontata.
Un numero crescente di persone sono state vittime di ciò che a volte viene definito Psicosi dell’IA. Gli esperti temono che i chatbot come ChatGPT possano alimentare gli utenti deliri e paranoieche li ha portati a essere ricoverati in ospedale, divorziati o morti.
Un OpenAI verifica aziendale dalla rivista medica peer-reviewed BMJ pubblicata in ottobre ha rivelato che centinaia di migliaia di utenti ChatGPT mostrano segni di psicosi, mania o intenti suicidi ogni settimana.
Una recente Brown University studio Inoltre, poiché sempre più persone si rivolgono a ChatGPT e ad altri grandi modelli linguistici per consulenza sulla salute mentale, violano sistematicamente gli standard etici sulla salute mentale stabiliti da organizzazioni come l’American Psychological Association.
Simo ha affermato che deve percorrere un percorso “inesplorato” per affrontare questi problemi di salute mentale, aggiungendo che esiste un rischio intrinseco nel fatto che OpenAI implementi costantemente funzionalità diverse.
“Ogni settimana emergono nuovi comportamenti con funzionalità che lanciamo e ci dicono: ‘Oh, questa è un’altra sfida di sicurezza da affrontare'”, ha detto Simo Cablato.
Tuttavia, Simo ha supervisionato la recente introduzione da parte dell’azienda di controlli parentali per gli account adolescenti ChatGPT e aggiunto OpenAI sta lavorando sulla “previsione dell’età per proteggere gli adolescenti”. Anche Meta lo ha fatto mosso istituire il controllo parentale entro l’inizio del prossimo anno
Tuttavia, fare la cosa giusta ogni volta è estremamente difficile”, ha affermato Simo, a causa dell’enorme volume di utenti (800 milioni a settimana). “Quindi quello che stiamo cercando di fare è catturare il maggior numero possibile di comportamenti che non sono ideali e quindi perfezionare costantemente i nostri modelli.”
