FTC lancia una richiesta sul grande problema di compagno di chatbot

FTC lancia una richiesta sul grande problema di compagno di chatbot



La Federal Trade Commission ha avviato un’indagine su diverse società di intelligenza sui social media e artificiali sui potenziali danni a bambini e adolescenti che usano i loro chatbot di intelligenza artificiale come compagni.

La FTC ha detto giovedì di aver inviato lettere a Google Alfabeto genitore, Facebook e Instagram Piattaforme di meta genitore, AffrettatoCharacter Technologies, CHATGPT Maker Openai e Xai.

L’FTC ha dichiarato di voler capire quali passi hanno preso le aziende per valutare la sicurezza dei loro chatbot quando agiscono come compagni, per limitare l’uso dei prodotti e potenziali effetti negativi su bambini e adolescenti e per informare utenti e genitori dei rischi associati ai chatbot.

Nota del redattore – Questa storia include la discussione sul suicidio. Se tu o qualcuno che conosci ha bisogno di aiuto, la linea di salvataggio nazionale suicidio e crisi negli Stati Uniti è disponibile chiamando o mandando messaggi 988.

La mossa arriva come a Il numero crescente di bambini usa i chatbot AI Per tutto, dai compiti a casa ai consigli personali, al supporto emotivo e al processo decisionale quotidiano. Questo nonostante la ricerca sui danni dei chatbot, che hanno dimostrato di dare Consigli pericolosi per bambini su argomenti come droghe, alcol e disturbi alimentari. La madre di un adolescente in Florida che si è ucciso dopo aver sviluppato quella che ha descritto come una relazione emotivamente e sessualmente abusiva con un chatbot ha presentato una morte ingiusta causa contro personaggio.ai. E i genitori del sedicenne Adam Raine hanno recentemente citato in giudizio Openai e il suo CEO Sam Altman, sostenendo che Chatgpt ha allenato il ragazzo della California nella pianificazione e nella sua vita all’inizio di quest’anno.

Personaggio.ai ha detto che non vede l’ora di “collaborare con l’FTC su questa indagine e fornire informazioni sull’industria dell’intelligenza artificiale dei consumatori e sulla tecnologia in rapida evoluzione dello spazio”.

“Abbiamo investito un’enorme quantità di risorse in materia di fiducia e sicurezza, in particolare per una startup. L’anno scorso abbiamo lanciato molte caratteristiche di sicurezza sostanziale, tra cui un’esperienza under 18 completamente nuova e una funzione di intuizione dei genitori”, ha affermato la società. “Abbiamo importanti dichiarazioni di non responsabilità in ogni chat per ricordare agli utenti che un personaggio non è una persona reale e che tutto ciò che dice un personaggio dovrebbe essere trattato come finzione”.

Snap ha detto che il mio chatbot AI è “trasparente e chiaro sulle sue capacità e limitazioni”.

“Condividiamo l’attenzione dell’FTC sul garantire lo sviluppo ponderato dell’intelligenza artificiale generativa e non vediamo l’ora di lavorare con la Commissione sulla politica dell’IA che rafforza l’innovazione americana mentre protegge la nostra comunità”, ha affermato la società in una nota.

Meta ha rifiutato di commentare l’indagine e l’alfabeto, Openai e X.Ai non ha risposto immediatamente ai messaggi per un commento.

Openai e Meta all’inizio di questo mese hanno annunciato cambia a come i loro chatbot rispondono agli adolescenti fare domande sul suicidio o mostrando segni di angoscia mentale ed emotiva. Openi ha detto che lo è lanciare nuovi controlli consentendo ai genitori di collegare i loro account all’account del loro adolescente.

I genitori possono scegliere quali caratteristiche disabilitare e “ricevere notifiche quando il sistema rileva il proprio adolescente è in un momento di sofferenza acuta”, secondo un post sul blog aziendale che afferma che le modifiche entreranno in vigore in autunno.

Indipendentemente dall’età di un utente, la società afferma che i suoi chatbot tenteranno di reindirizzare le conversazioni più angoscianti a modelli di intelligenza artificiale più capaci che possono fornire una risposta migliore.

Meta ha anche detto che ora sta bloccando i suoi chatbot dal parlare con adolescenti di autolesionismo, suicidio, alimentazione disordinata e conversazioni romantiche inappropriate e invece li dirige verso risorse di esperti. Meta offre già controlli parentali sugli account adolescenti.

Forum Global Fort Ritorna dal 26 al 27 ottobre 2025 a Riyadh. Gli amministratori delegati e i leader globali si riuniranno per un evento dinamico e solo su invito che modella il futuro del business. Richiedere un invito.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top