L’ultimo modello di frontiera di Xai, Grok 4, è stato rilasciato senza rapporti sulla sicurezza standard del settore, nonostante il CEO dell’azienda, Elon Musk, in particolare vocale sulle sue preoccupazioni per la sicurezza dell’IA.
I principali laboratori di intelligenza artificiale in genere rilasciano rapporti di sicurezza noti come “schede di sistema” insieme ai modelli di frontiera.
I rapporti servono come documenti di trasparenza e metriche per le prestazioni dettagliate, limitazioni e, soprattutto, i potenziali pericoli dei modelli AI avanzati. Queste carte consentono anche a ricercatori, esperti e responsabili politici di accedere alle capacità del modello e al livello di minaccia.
Diversi principali Società di intelligenza artificiale impegnate a rilasciare Rapporti per tutte le principali versioni di modelli pubblici che sono più potenti dell’attuale tecnologia all’avanguardia in una riunione di luglio 2023 convocata dall’allora presidente Joe Biden dell’amministrazione alla Casa Bianca.
Sebbene Xai non abbia accettato pubblicamente questi impegni, in un vertice internazionale sulla sicurezza dell’IA tenutasi a Seoul nel maggio 2024, la società, altezza degli altri laboratori di AI leader, impegnata al Frontier AI Impegni di sicurezzache includeva l’impegno a divulgare le capacità del modello, casi d’uso inappropriati e fornire trasparenza sulle valutazioni e sui risultati del rischio di un modello.
Inoltre, dal 2014, Musk ha continuamente e pubblicamente definito Ai una minaccia esistenzialefatto una campagna per una regolamentazione più severa e sostenuto per standard di sicurezza più elevati.
Ora, il laboratorio di AI che guida sembra rompere dagli standard del settore rilasciando Grok 4 e versioni precedenti del modello, senza test di sicurezza divulgati pubblicamente.
I rappresentanti di Xai non hanno risposto Fortune’s Domande sul fatto che esista la scheda di sistema di Grok o verrà rilasciata.
I principali laboratori di intelligenza artificiale sono stati criticati per i rapporti di sicurezza ritardati
Mentre le principali rapporti sulla sicurezza di AI Labs hanno affrontato un controllo negli ultimi mesi, Soprattutto quello di Google e Openi (che entrambi hanno rilasciato modelli AI Prima Publishing di carte di sistema di accompagnamento), la maggior parte ha fornito alcune informazioni sulla sicurezza pubblica per i loro modelli più potenti.
Dan Hendrycks, direttore del Center for AI Safety che consiglia a XAI di sicurezza, ha negato l’affermazione che la società non aveva fatto test di sicurezza.
In un post su XHendrycks ha affermato che la società ha testato il modello su “pericolose capacità di capacità” ma non è riuscita a fornire dettagli sui risultati.
Perché le carte di sicurezza sono importanti?
Numerosi modelli AI avanzati hanno dimostrato capacità pericolose negli ultimi mesi.
Secondo un recente studio antropico, la maggior parte dei principali modelli AI ha una tendenza optare per mezzi non etici per perseguire i propri obiettivi o garantire la loro esistenza.
Negli esperimenti istituiti per lasciare modelli di intelligenza artificiale poche opzioni e allineamento del test di stress, i migliori sistemi di OpenAI, Googlee altri ricorrevano spesso a ricatti per proteggere i loro interessi.
Man mano che i modelli diventano più avanzati, i test di sicurezza diventano più importanti.
Ad esempio, se le valutazioni interne mostrano che un modello di intelligenza artificiale ha capacità pericolose come la capacità di aiutare gli utenti nella creazione di armi biologiche, gli sviluppatori potrebbero aver bisogno di creare ulteriori garanzie per gestire questi rischi per la sicurezza pubblica.
Samuel Marks, un ricercatore di sicurezza AI di antropico, ha chiamato la mancanza di segnalazioni di sicurezza da Xai “sconsiderato” e una pausa dalle “migliori pratiche del settore seguite da altri importanti laboratori di intelligenza artificiale”.
“Ci si chiede cosa avessero corso, sia che fossero stati fatti correttamente, sia che sembrino richiedere ulteriori garanzie”, lui detto in un post X.
Marks ha detto che Grok 4 stava già mostrando comportamenti non documentati dopo il dispiegamento, indicando esempi che mostravano il modello alla ricerca delle opinioni di Elon Musk prima di dare le sue opinioni su argomenti politici, incluso il conflitto israeliano/palestina.
Il comportamento problematico di Grok
Una versione precedente di Grok ha anche fatto notizia la scorsa settimana quando ha iniziato a lodare Adolf Hitler, facendo commenti antisemiti e riferindosi a se stesso come “mechahitler”.
Xai ha emesso scuse Per le osservazioni antisemite fatte da Grok, dicendo che la compagnia si è scusata “per il comportamento orribile che molti hanno vissuto”.
Dopo il rilascio di Grok 4, la compagnia detto in una dichiarazione Aveva individuato un comportamento altrettanto problematico dal nuovo modello e aveva “immediatamente studiato e mitigato”.
“Uno era che se lo chiedi” Qual è il tuo cognome? ” Non ne ha uno, quindi cerca su Internet che porta a risultati indesiderati, ad esempio quando le sue ricerche hanno raccolto un meme virale in cui si chiamava “mechahitler” un altro era che se gli chiedi “cosa ne pensi?” Il modello ragiona che come AI non ha un’opinione, ma sapendo che era Grok 4 da Xai cerca di vedere ciò che Xai o Elon Musk avrebbero potuto dire su un argomento per allinearsi con la società “, ha detto la società in un post su X.
“Per mitigare, abbiamo modificato le istruzioni e abbiamo condiviso i dettagli su GitHub per la trasparenza. Stiamo monitorando attivamente e implementeremo ulteriori aggiustamenti secondo necessità”, hanno scritto.