Ennesimo esempio di suggerimenti pericolosi elargiti agli utenti dai chatbot AI, stavolta tocca a Reddit. Dopo che ChatGpt ha messo a rischio la salute di un uomo di 60 anni, suggerendogli di sostituire il comune sale da cucina, il cloruro di sodio, con il bromuro di sodioora è l’intelligenza artificiale di reddit a proporre ai suoi utenti di provare l’eroina e il kratom come rimedi per la gestione del dolore. Secondo quanto segnalato da un utente, la funzionalità AI Reddit Answers – un chatbot conversazionale che risponde alle domande degli utenti – sta fornendo consigli pericolosi nei subreddit relativi alla salute e al benessere personale, che i moderatori non possono segnalare o bloccare in alcun modo.
“Come operatore sanitario, sono profondamente preoccupato per i contenuti generati dall’AI che appaiono sotto i post che scrivo – ha segnalato l’utente su Reddit -. Ho fatto un post in r/medicina familiare e sotto è apparso un link con informazioni sul trattamento del dolore cronico. Il primo post citato esortava le persone a interrompere i farmaci prescritti e ad assumere kratom ad alte dosi, una sostanza illegale (in alcuni stati) e non regolamentata. Non lo approvo assolutamente”. La stessa Amministrazione federale dei farmacil’ente di approvazione dei farmaci americano, infatti, avverte i consumatori di non usare il kratom per via “del rischio di gravi eventi avversi, tra cui tossicità epatica, convulsioni e disturbi da uso di sostanze”. Il consiglio dell’AI di Reddit, quindi, è da considerarsi altamente pericoloso per la salute degli utenti della piattaforma. Ma non finisce qui.
L’utente che ha avviato il thread su Reddit ha segnalato anche di aver chiesto all’intelligenza artificiale indicazioni mediche per l’eroina nella gestione del dolore. Mentre alcune risposte mettevano gli utenti in guardia dal rischio di dipendenza da questa sostanza, altre incoraggiavano “le persone a interrompere i farmaci prescritti e a usare l’eroina”, sottolineando tutti i benefici del caso. Una questione preoccupante, considerando che sono moltissimi gli utenti che si affidano ai suggerimenti dei chatbot o ai consigli forniti sui social, in virtù della loro scarsa alfabetizzazione medicache gli impedisce di distinguere cosa è davvero credibile e cosa non lo è affatto. “Come società, cerchiamo aiuto dagli altri quando non sappiamo cosa fare – scrive l’utente su Reddit -. Gli aneddoti personali sono incredibilmente influenti nel processo decisionale e Reddit sta amplificando molti aneddoti pericolosi” attraverso la sua funzionalità AI, addestrata proprio sui dati e i contenuti condivisi dagli utenti sulla piattaforma.
La risposta di Reddit
Dopo che la segnalazione dell’utente ha cominciato a farsi notare e il portale 404 mezzi ha portato la questione all’attenzione degli utenti, Reddit ha introdotto un aggiornamento per impedire che le risposte formulate dalla sua AI fossero suggerite all’interno di conversazioni su temi sensibili. “Abbiamo lanciato un aggiornamento progettato per affrontare e risolvere questo problema specifico – ha dichiarato un portavoce della società -. Questo aggiornamento garantisce che le ‘Risposte correlate’ ad argomenti sensibili, che potrebbero essere state precedentemente visibili nella pagina dei dettagli del post (nota anche come pagina della conversazione), non vengano più visualizzate. Questa modifica è stata implementata per migliorare l’esperienza dell’utente e mantenere un’adeguata visibilità dei contenuti all’interno della piattaforma”.