Ciao e benvenuto a Eye on Ai … In questa edizione: la mia chat con il leader di AI Eric Xing … il piano di esportazione di AI di Trump … Drama all’International Math Olympiad … Stargate Update … trasparenza nel ragionamento.
Ero entusiasta e curioso di incontrare Eric Xing la scorsa settimana a Vancouver, dove stavo partecipando alla Conferenza internazionale sull’apprendimento automatico, uno dei migliori incontri di ricerca sull’intelligenza artificiale dell’anno. Perché? Xing, una professoressa di Carnegie Mellon di lunga data che si è trasferita ad Abu Dhabi nel 2020 per guidare il pubblico, finanziato dallo stato Mohamed Bin Zayed University of Artificial Intelligence (Mbzuai), si trova al crocevia di quasi ogni grande domanda nell’IA oggi: ricerca, geopolitica, persino filosofia.
Gli Emirati Arabi Uniti, dopo tutto, sono diventati tranquillamente uno dei giocatori più intriganti della razza AI globale. Il piccolo stato del Golfo si sta allineando con le norme in stile USA attorno alla libertà intellettuale e alla ricerca aperta, anche come la rivalità di intelligenza artificiale tra Stati Uniti e Cina viene sempre più definita da ecosistemi chiusi e concorrenza strategica. Gli Emirati Arabi Uniti non stanno cercando di “vincere” la gara AI, ma vogliono un posto al tavolo. Tra Mbzuai e G42-il suo conglomerato focalizzato sull’intelligenza artificiale statale: gli Emirati Arabi Uniti stanno costruendo infrastrutture di intelligenza artificiale, investendo in talenti e posizionandosi in modo aggressivo come partner di riferimento per le aziende americane come Openai e Oracolo. E Xing è al centro di esso.
Come è successo, Xing e io ci siamo appena persi: è arrivato a Vancouver mentre stavo tornando a casa, quindi ci siamo collegati a zoom il giorno seguente. La nostra conversazione variava ampiamente, dall’hype attorno ai “modelli mondiali” a come gli Emirati Arabi Uniti sta usando la ricerca sull’intelligenza artificiale open source come leva strategica per costruire soft power. Ecco alcuni dei takeaway più avvincenti:
A ‘Bell Labs più un’università‘
Mbzuai ha solo cinque anni, ma Xing afferma che è già tra le istituzioni accademiche in più rapida crescita al mondo. La scuola, che è principalmente un programma di laurea per i ricercatori di intelligenza artificiale, aspira a competere con istituzioni d’élite come MIT e Carnegie Mellon, affrontando anche le sfide della ricerca applicate. Xing lo definisce un’organizzazione ibrida, simile a “Bell Labs più un’università”, riferendosi al leggendario braccio di ricerca e sviluppo di AT&T, fondata nel 1925 e responsabile di innovazioni fondamentali che hanno modellato il moderno calcolo, comunicazione e fisica.
Gli Emirati Arabi Uniti come un ambasciatore di AI di soft power
Xing vede Mbzuai non solo come un’università, ma come parte dello sforzo più ampio degli Emirati Arabi Uniti per costruire un soft power in AI. Descrive il paese come “un’isola forte” dell’allineamento statunitense in Medio Oriente e considera l’università come un “centro ambasciatore” per le norme di ricerca in stile americano: open source, libertà intellettuale e trasparenza scientifica. “Se gli Stati Uniti vogliono proiettare l’influenza nell’IA, ha bisogno di istituzioni come questa”, mi ha detto. “Altrimenti, altri paesi intervengono e definiranno la direzione.”
Gli Stati Uniti non stanno perdendo la gara AI
Mentre gran parte della narrativa pubblica intorno all’IA si concentra su una gara USA-Cina, Xing non acquista l’inquadratura. “Non c’è guerra AI”, ha detto piattariamente. “Gli Stati Uniti sono molto avanti nelle idee, nelle persone e nell’ambiente di innovazione.” A suo avviso, l’ecosistema di intelligenza artificiale cinese è ancora vincolato da censura, limiti di hardware e una cultura dell’innovazione dal basso verso il basso più debole. “Molti migliori ingegneri di intelligenza artificiale negli Stati Uniti potrebbero essere di origine cinese”, ha detto, “ma sono diventati i migliori ingegneri dopo aver studiato e lavorato negli Stati Uniti”
Perché l’open source è importante
Per Xing, l’open source non è solo una preferenza filosofica: è una scelta strategica. A Mbzuai, sta spingendo per la ricerca aperta e lo sviluppo dell’IA open source come un modo per democratizzare l’accesso a strumenti all’avanguardia, in particolare per paesi e ricercatori al di fuori dei centri di potere statunitense-cinese. “Open Source applica pressione sui sistemi chiusi”, mi ha detto. “Senza di essa, meno persone sarebbero in grado di costruire – o persino capire – queste tecnologie.” In un momento in cui gran parte dell’intelligenza artificiale si stacca dietro le pareti aziendali, Xing vede l’approccio aperto di Mbzuai come un modo per favorire il talento globale, far avanzare la comprensione scientifica e costruire credibilità per gli Emirati Arabi Uniti come hub per lo sviluppo responsabile dell’intelligenza artificiale.
Su “World Models” e AI Hype
Xing non si è trattenuto quando si è trattato di una delle tendenze più vivaci dell’IA in questo momento: i cosiddetti “modelli mondiali”: sistemi che mirano ad aiutare gli agenti di AI a imparare simulando il funzionamento del mondo. È scettico sull’hype. “In questo momento le persone stanno costruendo bei generatori di video e li chiamano modelli mondiali”, ha detto. “Non è un ragionamento. Non è una simulazione.” In un recente articolo ha trascorso mesi a scrivere se stesso – un solito per qualcuno della sua anzianità – sostiene che i modelli del vero mondo dovrebbero andare oltre visioni appariscenti. Dovrebbero aiutare l’IA a ragioni su causa ed effetto, non solo prevedere il fotogramma successivo di un video. In altre parole: l’IA deve capire il mondo, non solo imitarlo.
Detto questo, ecco il resto delle notizie dell’IA, tra cui il fatto che domani la Casa Bianca pubblica una nuova strategia di intelligenza artificiale volta a rafforzare l’esportazione globale delle tecnologie USA AI mentre si reprimono sulle norme a livello statale che sono considerate eccessivamente restrittive. Frequenterò l’evento DC, che include un keynote del presidente Trump, e riferirò.
Sharon Goldman
[email protected]
@sharongoldman
AI nelle notizie
La Casa Bianca per svelare il piano di spingere l’esportazione globale dell’IA USA e reprimere le restrizioni. Secondo una bozza vista da Reutersla Casa Bianca è destinata a rilasciare una nuova spazzante strategia di intelligenza artificiale mercoledì mira a rafforzare l’esportazione globale delle tecnologie USA AI mentre si reprimono sui regolamenti a livello statale considerati eccessivamente restrittivi. Il piano impedirà ai finanziamenti federali di intelligenza artificiale da parte degli stati con leggi sull’intelligenza artificiale difficili, promuoverà lo sviluppo di intelligenza artificiale open-source e a peso aperto e dirige il dipartimento del commercio a guidare gli sforzi di data center e dispiegamento all’estero. Controlla anche la FCC nella revisione di potenziali conflitti tra obiettivi federali e regole locali. Incorniciata come una spinta per rendere “l’America la capitale mondiale nell’intelligenza artificiale”, il piano riflette la direttiva di gennaio del presidente Trump e sarà svelato durante un evento “vincente la gara AI” co-ospitata dal All-in podcast e con la Casa Bianca AI Czar David Sacks.
Openi e Google DeepMind hanno scatenato il dramma matematico. Negli ultimi giorni, sia Openai che Google DeepMind hanno affermato che i loro modelli di intelligenza artificiale avevano ottenuto prestazioni a livello di medicina d’oro alle olimpiadi matematiche internazionali del 2025, risolvendo con successo 5 problemi notoriamente difficili su 6. È stata una pietra miliare che molti hanno considerato anni di distanza: un ragionamento generale LLM che ha raggiunto quel livello di prestazioni sotto lo stesso tempo limite degli esseri umani, senza strumenti. Ma il modo in cui hanno annunciato ha suscitato polemiche. Openi ha pubblicato i suoi risultati per primi, sulla base della propria valutazione utilizzando domande in stile IMO e alunni umani, prima di qualsiasi verifica ufficiale. Ciò ha provocato critiche da importanti matematici, tra cui Terence Tao, che interrogato se i problemi fossero stati modificati o semplificati. Al contrario, Google ha partecipato ufficialmente alla competizione, ha aspettato la revisione indipendente dell’IMO e solo poi ha dichiarato che il suo modello di Thinthinker Gemini aveva guadagnato una medaglia d’oro, facendola il primo sistema di intelligenza artificiale ad essere formalmente riconosciuto dall’IMO come esibirsi a quel livello. Il dramma ha messo a nudo le quote alte – e diversi standard – per la credibilità nella gara dell’IA.
Secondo quanto riferito, Softbank e Openi stanno lottando per ottenere un progetto Stargate AI da $ 500 miliardi da terra. Secondo il Wall Street Journalil progetto Stargate da 500 miliardi di dollari, annotato con Fanfare alla Casa Bianca sei mesi fa da Masayoshi Son, Sam Altman e il presidente Trump – ha colpito la grande turbolenza. Presentata come un chiaro di luna per potenziare l’infrastruttura di intelligenza artificiale statunitense, l’iniziativa non ha ancora interrotto la terra su un singolo data center e i disaccordi interni tra Softbank e Openi su termini chiave come la posizione del sito hanno ritardato i progressi. Nonostante le promesse di investire $ 100 miliardi “immediatamente”, Stargate mira ora a un lancio in ridimensionato: una singola piccola struttura, probabilmente in Ohio, entro la fine dell’anno. È una battuta d’arresto per Son, che ha recentemente commesso un record di $ 30 miliardi da Openi, ma sta ancora cercando di garantire un punto d’appoggio significativo nella gara di armamento AI. Tuttavia, Bloomberg ha riferito oggi che Oracle fornirà a Openi 2 milioni di nuovi chip AI che faranno parte di un’enorme espansione del data center che Openi ha etichettato come parte del suo progetto Stargate. SoftBank, tuttavia, non sta finanziando nessuna delle nuove capacità e non è chiaro quale operatore svilupperà data center per supportare la nuova capacità e quando saranno costruiti.
Occhio sulla ricerca di intelligenza artificiale
Suonando l’allarme sulla crescente opacità dei modelli di ragionamento AI avanzati. Fortuna Reporter Beatrice Nolan riportato Questa settimana su un gruppo di 40 ricercatori di intelligenza artificiale, tra cui collaboratori di Openai, Google DeepMind, Meta e Antropic, che suonano l’allarme sulla crescente opacità dei modelli di ragionamento AI avanzati. In un nuovo documento, gli autori esortano gli sviluppatori a dare la priorità alla ricerca sui processi di “catena” (COT), che forniscono una rara finestra su come i sistemi di intelligenza artificiale prendono decisioni. Stanno avvertindo che man mano che i modelli diventano più avanzati, questa visibilità potrebbe svanire.
Il processo di “catena di pensiero”, che è visibile in modelli di ragionamento come O1 di Openi e R1 di DeepSeek, consente agli utenti e ai ricercatori di monitorare il processo di “pensiero” o di “ragionamento” di un modello di intelligenza artificiale, illustrando come decide su un’azione o una risposta e fornendo una certa trasparenza nei lavori interni dei modelli avanzati.
I ricercatori hanno affermato che consentire a questi sistemi di intelligenza artificiale di “pensare” nel linguaggio umano offre un’opportunità unica per la sicurezza dell’intelligenza artificiale “, in quanto possono essere monitorati per l ‘” intenzione di comportarsi male “. Tuttavia, avvertono che “non vi è alcuna garanzia che l’attuale grado di visibilità persisterà” mentre i modelli continuino ad avanzare.
L’articolo evidenzia che gli esperti non comprendono completamente perché questi modelli usano il lettino o per quanto tempo continueranno a farlo. Gli autori hanno esortato gli sviluppatori di intelligenza artificiale a tenere d’occhio il ragionamento della catena di pensiero, suggerendo che la sua tracciabilità potrebbe eventualmente fungere da meccanismo di sicurezza integrato.
Fortuna che abbiamo
Mark Cuban dice che la guerra di AI “diventerà brutta” e la proprietà intellettuale “è re” nel mondo dell’IA —La lago di Sydney
Gli sviluppatori di software esperti presumevano che l’IA avrebbe risparmiato loro un pezzo di tempo. Ma in un esperimento, i loro compiti hanno richiesto il 20% in più —La Sasha Rogelberg
Hai un calendario
26-28 luglio: World Artificial Intelligence Conference (WAIC), Shanghai.
8-10 settembre: Fortune Brainstorming Tech, Park City, Utah. Fare domanda per partecipare Qui.
6-10 ottobre: Mondo AI Settimana, Amsterdam
21-22 ottobre: Tedai San Francisco.
2-7 dicembre: Neurips, San Diego
8-9 dicembre: Fortune Brainstorm Ai San Francisco. Fare domanda per partecipare Qui.