Laboratori di intelligenza artificiale come Meta, Deepseek e Xai hanno ottenuto i peggiori voti possibili in un indice di sicurezza esistenziale

Laboratori di intelligenza artificiale come Meta, Deepseek e Xai hanno ottenuto i peggiori voti possibili in un indice di sicurezza esistenziale



Una recente pagella di un ente di vigilanza sulla sicurezza dell’intelligenza artificiale non è quella che le aziende tecnologiche vorranno attaccare al frigorifero.

Il futuro della vita dell’Istituto ultimo indice di sicurezza AI ha scoperto che i principali laboratori di intelligenza artificiale non sono stati all’altezza della maggior parte delle misure di responsabilità dell’intelligenza artificiale, con pochi voti in lettere che superavano la C. L’organizzazione ha classificato otto aziende in categorie come quadri di sicurezza, valutazione del rischio e danni attuali.

Forse la cosa più evidente è stata la linea della “sicurezza esistenziale”, in cui le aziende hanno ottenuto D e F su tutta la linea. Sebbene molte di queste aziende stiano esplicitamente inseguendo la superintelligenza, non hanno un piano per gestirla in modo sicuro, secondo Max Tegmark, professore del MIT e presidente del Future of Life Institute.

“I revisori hanno trovato questo tipo di stridente”, ci ha detto Tegmark.

I revisori in questione erano un gruppo di accademici di intelligenza artificiale ed esperti di governance che hanno esaminato il materiale disponibile al pubblico e le risposte ai sondaggi presentate da cinque delle otto società.

Antropico, OpenAI e GoogleMente profonda hanno preso i primi tre posti con un voto complessivo di C+ o C. Poi sono arrivati, nell’ordine, Xai, Z.ai, MetaDeepSeek e Alibaba, che hanno tutti ottenuto D o D-.

Tegmark dà la colpa alla mancanza di regolamentazione che ha fatto sì che la concorrenza spietata della corsa all’intelligenza artificiale prevalga sulle precauzioni di sicurezza. California recentemente passato la prima legge che impone alle aziende di frontiera dell’intelligenza artificiale di divulgare informazioni sulla sicurezza sui rischi catastrofici, e New York lo è attualmente a portata di sputo anche. Le speranze per una legislazione federale sono deboleTuttavia.

“Le aziende hanno un incentivo, anche se hanno le migliori intenzioni, a lanciare sempre nuovi prodotti prima che lo faccia il concorrente, invece di dedicare necessariamente molto tempo per renderlo sicuro”, ha affermato Tegmark.

Al posto degli standard imposti dal governo, Tegmark ha affermato che l’industria ha iniziato a prendere più seriamente gli indici di sicurezza regolarmente rilasciati dal gruppo; quattro delle cinque società americane ora rispondono al suo sondaggio (Meta è l’unica che resiste). E le aziende hanno apportato alcuni miglioramenti nel tempo, ha affermato Tegmark, citando come esempio la trasparenza di Google riguardo alla sua politica di segnalazione.

Ma i danni nella vita reale riportati su questioni come suicidi di adolescenti che i chatbot avrebbero incoraggiato, interazioni inappropriate con minorenni, e grandi attacchi informatici hanno anche alzato la posta in gioco, ha detto.

“(Loro) hanno davvero fatto capire a molte persone che questo non è il futuro di cui stiamo parlando: è adesso”, ha detto Tegmark.

Il Future of Life Institute ha recentemente arruolato personaggi pubblici diversi come il principe Harry e Meghan Markle, l’ex aiutante di Trump Steve Bannon, Mela il co-fondatore Steve Wozniak e il rapper Will.i.am firmeranno un dichiarazione opporsi al lavoro che potrebbe portare alla superintelligenza.

Tegmark ha detto che gli piacerebbe vedere qualcosa come “una FDA per l’intelligenza artificiale in cui le aziende devono prima convincere gli esperti che i loro modelli sono sicuri prima di poterli vendere.

“L’industria dell’intelligenza artificiale è piuttosto unica nel senso che è l’unica industria negli Stati Uniti che produce una tecnologia potente che è meno regolamentata dei sandwich, fondamentalmente non regolamentata affatto”, ha affermato Tegmark. “Se qualcuno dice: ‘Voglio aprire una nuova paninoteca vicino a Times Square’, prima che tu possa vendere il primo panino, hai bisogno di un ispettore sanitario che controlli la tua cucina e si assicuri che non sia piena di topi… Se invece dici: ‘Oh no, non venderò nessun panino. Rilascerò solo la superintelligenza.’ Va bene! Non c’è bisogno di ispettori, non c’è bisogno di ottenere alcuna approvazione per nulla”.

“Quindi la soluzione a questo è molto ovvia”, ha aggiunto Tegmark. “Basta semplicemente fermare questo welfare aziendale consistente nel concedere alle aziende di intelligenza artificiale esenzioni che nessun’altra azienda ottiene”.

Questo rapporto è stato originariamente pubblicato di Birra tecnologica.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top