Reddit, l’intelligenza artificiale ha suggerito agli utenti di provare l’eroina
Ennesimo esempio di suggerimenti pericolosi elargiti agli utenti dai chatbot AI, stavolta tocca a Reddit. Dopo che ChatGpt ha messo a rischio la salute di un uomo di 60 anni, suggerendogli di sostituire il comune sale da cucina, il cloruro di sodio, con il bromuro di sodioora è l’intelligenza artificiale di reddit a proporre ai…
