L’xAI di Elon Musk limita Grok dopo le proteste per le immagini sessualizzate

L’xAI di Elon Musk limita Grok dopo le proteste per le immagini sessualizzate


Sblocca gratuitamente il Digest dell’editore

La società di intelligenza artificiale xAI di Elon Musk ha limitato l’uso del suo controverso generatore di immagini AI Grok agli abbonati paganti, a seguito di una crescente protesta per il suo utilizzo per diffondere deepfake sessualizzati di donne e bambini.

La startup ha annunciato il trasloco venerdì mattina, giorni dopo che era emerso che il chatbot era stato utilizzato per creare immagini esplicite di persone senza consenso.

Tali rivelazioni hanno portato i legislatori di UE, Francia e Regno Unito a minacciare la piattaforma con multe e divieti a meno che non agisca.

“La generazione e la modifica delle immagini sono attualmente limitate agli abbonati paganti”, ha pubblicato Grok su X. xAI non ha risposto immediatamente alla richiesta di ulteriori commenti.

Grok è stato intenzionalmente progettato per avere meno barriere di contenuto rispetto alla concorrenza, con Musk che definisce il modello “massimamente alla ricerca della verità”. Il chatbot dell’azienda include anche una funzionalità che consente agli utenti di generare immagini osé.

Il primo ministro britannico Sir Keir Starmer ha promesso di agire contro X giovedì, esortando la piattaforma di social media a “agire insieme” e impedire al suo strumento di chatbot AI Grok di produrre immagini sessualizzate di bambini.

Nel frattempo la Commissione Europea ha ordinato a X di conservare i documenti interni relativi a Grok fino alla fine dell’anno. I ministri francesi hanno anche denunciato le immagini sessuali che Grok ha generato ai pubblici ministeri e ai regolatori dei media.

Il 3 gennaio Musk pubblicato su X che “chiunque utilizzi Grok per creare contenuti illegali subirà le stesse conseguenze come se caricasse contenuti illegali”.

L’ascesa dell’intelligenza artificiale generativa ha portato a un’esplosione di immagini deepfake non consensuali, grazie alla facilità con cui è possibile utilizzare la tecnologia per creare tali immagini.

IL Fondazione Internet Watchun’organizzazione no-profit con sede nel Regno Unito, ha affermato che le immagini di abusi sessuali su minori generate dall’intelligenza artificiale sono raddoppiate nell’ultimo anno, e il materiale è diventato più estremo.

Sebbene xAI abbia affermato di aver rimosso le immagini illegali di bambini generate dall’intelligenza artificiale, l’ultimo incidente solleverà ulteriori preoccupazioni su quanto sia facile ignorare i guardrail di sicurezza nei modelli di intelligenza artificiale. IL settore tecnologico e i regolatori sono alle prese con l’impatto sociale di vasta portata dell’intelligenza artificiale generativa.

Nel 2023, i ricercatori della Stanford University hanno scoperto che un popolare database utilizzato per creare generatori di immagini AI era pieno di materiale pedopornografico.

Le leggi che regolano i contenuti dannosi generati dall’intelligenza artificiale sono frammentarie. Nel maggio 2025, gli Stati Uniti hanno convertito in legge il Take It Down Act, che affronta il “revenge porno” e i deepfake generati dall’intelligenza artificiale.

Il Regno Unito sta inoltre lavorando a un disegno di legge per rendere illegale il possesso, la creazione o la distribuzione di strumenti di intelligenza artificiale in grado di generare materiale pedopornografico e per richiedere che i sistemi di intelligenza artificiale siano testati approfonditamente per verificare che non possano generare contenuti illegali.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top