Openi’s Annuncio GPT-5 la scorsa settimana doveva essere un trionfo – a prova di essere ancora il leader indiscusso nell’IA – fino a quando non lo era. Durante il fine settimana, una gamma di pushback dei clienti ha trasformato il lancio in più di una tempesta di PR: è diventato un prodotto e una crisi di fiducia. Gli utenti hanno lamentato la perdita dei loro modelli preferiti, che erano raddoppiati come terapisti, amici e partner romantici. Gli sviluppatori si sono lamentati delle prestazioni degradate. Il critico dell’industria Gary Marcus ha prevedibilmente chiamato GPT-5 “in ritardo, convocazione e deludente”.
Il colpevole, molti sostenevano, si nascondeva in bella vista: un nuovo modello in tempo reale “router” che decide automaticamente quale delle diverse varianti di GPT-5 si gira per ogni lavoro. Molti utenti hanno assunto GPT-5 era un singolo modello addestrato da zero; In realtà, è una rete di modelli – alcuni più deboli ed economici, altri più forti e più costosi – vengono inseriti insieme. Gli esperti affermano che l’approccio potrebbe essere il futuro dell’IA mentre i modelli di grandi dimensioni avanzano e diventare più intensivi. Ma nel debutto di GPT-5, Openi ha dimostrato alcune delle sfide intrinseche nell’approccio e ha imparato alcune importanti lezioni su come si stanno evolvendo le aspettative degli utenti nell’era dell’IA.
Per tutti i vantaggi promessi dal routing modello, molti utenti di GPT-5 si sono setati da quella che hanno percepito come una mancanza di controllo; Alcuni addirittura suggeriti che Openi potrebbe intenzionalmente cercare di tirare la lana sugli occhi.
In risposta al tumulto GPT-5, Openi si è mosso rapidamente per riportare il modello precedente principale, GPT-4O, per gli utenti professionisti. Ha anche affermato di aver risolto il routing buggy, un aumento dei limiti di utilizzo e ha promesso continui aggiornamenti per riguadagnare la fiducia e la stabilità dell’utente.
Anand Chowdhary, co-fondatore della piattaforma di vendita di AI FirstquaDrant, ha riassunto la situazione senza mezzi termini: “Quando i colpi di routing, sembra magia. Quando si soffre, si sente rotto.”
La promessa e l’incoerenza del routing del modello
Jiaxuan You, un assistente professore di informatica all’Università dell’Illinois Urbana-Champaign, Fortuna Il suo laboratorio ha studiato sia la promessa che l’incoerenza – del routing del modello. Nel caso di GPT-5, ha detto, crede (anche se non può confermare) che il router modello a volte invii parti della stessa query a modelli diversi. Un modello più economico e più veloce potrebbe dare una risposta mentre un modello più lento e incentrato sul ragionamento ne dà un altro, e quando il sistema prende insieme quelle risposte, sottili contraddizioni scivolano attraverso.
L’idea di routing del modello è intuitiva, ha spiegato, ma “farlo funzionare davvero è molto non banale”. Il perfezionamento di un router, ha aggiunto, può essere impegnativo quanto la costruzione di sistemi di raccomandazione di livello Amazon, che richiedono anni e molti esperti di dominio per perfezionare. “Si suppone che GPT-5 sia costruito con forse ordini di grandezza più risorse”, ha spiegato, sottolineando che anche se il router sceglie un modello più piccolo, non dovrebbe produrre risposte incoerenti.
Tuttavia, credi che il routing sia qui per restare. “La comunità crede anche che il routing modello sia promettente”, ha detto, indicando ragioni sia tecniche che economiche. Tecnicamente, le prestazioni a modello singolo sembrano colpire un plateau: hai indicato le leggi di ridimensionamento comunemente citate, il che dice che quando abbiamo più dati e calcoli, il modello migliora. “Ma sappiamo tutti che il modello non sarebbe infinitamente migliore”, ha detto. “Nell’ultimo anno, abbiamo assistito a tutti che la capacità di un singolo modello è effettivamente saturante.”
Economicamente, il routing consente ai fornitori di AI di continuare a utilizzare modelli più vecchi piuttosto che scartarli quando uno nuovo viene lanciato. Gli eventi attuali richiedono aggiornamenti frequenti, ma i fatti statici rimangono accurati per anni. Dirigere alcune domande ai modelli più vecchi evita di perdere tempo, calcolare e denaro già speso per addestrarli.
Ci sono anche limiti fisici duri. La memoria GPU è diventata un collo di bottiglia per la formazione di modelli sempre più grandi e la tecnologia dei chip si sta avvicinando alla memoria massima che può essere imballata su un singolo dado. In pratica, hai spiegato, i limiti fisici significano che il modello successivo non può essere dieci volte più grande.
Un’idea più antica che ora viene pubblicizzata
William Falcon, fondatore e CEO di AI Platform Lightning AI, sottolinea che l’idea di usare un ensemble di modelli non è nuova-è in circolazione da circa il 2018 e poiché i modelli di Openai sono una scatola nera, non sappiamo che GPT-4 non ha anche utilizzato un sistema di routing di modelli.
“Penso che forse siano più espliciti al riguardo, potenzialmente”, ha detto. Ad ogni modo, il lancio di GPT-5 è stato fortemente sospeso, incluso il sistema di routing del modello. IL Post di blog che introduce il modello Lo ha definito il “modello più intelligente, più veloce e più utile, con il pensiero incorporato”. Nel post ufficiale del blog CHATGPT, Openai ha confermato che GPT-5 all’interno di Chatgpt funziona su un sistema di modelli coordinati da un router dietro le quinte che passa a ragionamenti più profondi quando necessario. La scheda del sistema GPT -5 è andata oltre, delineando chiaramente diverse varianti modello – GPT -5 – Main, GPT -5 – Main -Mini per la velocità e GPT -5 -pensino, GPT -5 -Pentinaia -Mini -Mini, oltre a una versione di pensiero – e spiega come il sistema unificato instrada automaticamente tra loro.
In una pre-briefing della stampa, il CEO di Openi Sam Altman ha propagandato il router modello come un modo per affrontare quello che era stato difficile da decifrare elenco di modelli tra cui scegliere. Altman ha definito l’interfaccia del modello di modello precedente un “pasticcio molto confuso”.
Ma Falcon ha detto che il problema principale era che GPT-5 semplicemente non si sentiva un salto. “GPT-1 a 2 a 3 a 4-ogni volta era un salto enorme. Quattro a cinque non era notevolmente migliore. Ecco di cosa la gente è arrabbiata.”
Più modelli si sommano ad AGI?
Il dibattito sul routing del modello ha portato alcuni a chiamare il clamore in corso sulla possibilità di intelligenza generale artificiale, o AGI, che si sviluppa presto. Openi definisce ufficialmente l’AGI come “sistemi altamente autonomi che superano gli umani nel maggior numero di lavori economicamente preziosi”, ma Altman in particolare ha detto la scorsa settimana che non è “un termine super utile”.
“E l’AGI promessa?” Ha scritto Aiden Chaoyang He, ricercatore e co-fondatore di Tensoropera, su XCritica il lancio del GPT-5. “Anche un’azienda potente come Openi manca della capacità di addestrare un modello super generale, costringendoli a ricorrere al router modello in tempo reale.”
Robert Nishihara, CEO della piattaforma di produzione AI Anyscale, afferma che il ridimensionamento sta ancora progredendo nell’intelligenza artificiale, ma l’idea di un modello di AI onnipotente rimane sfuggente. “È difficile costruire un modello che è il migliore in tutto”, ha detto. Ecco perché GPT-5 attualmente funziona su una rete di modelli collegati da un router, non un singolo monolite.
Openai ha affermato che spera di unificarli in un modello in futuro, ma Nishihara sottolinea che i sistemi ibridi hanno vantaggi reali: puoi aggiornare un pezzo alla volta senza interrompere il resto e ottenere la maggior parte dei vantaggi senza il costo e la complessità di riqualificare un intero modello gigante. Di conseguenza, Nishihara pensa che il routing rimarrà in giro.
Aiden Chaoyang è d’accordo. In teoria, il ridimensionamento delle leggi è ancora valido – più dati e calcolo migliorano i modelli – ma in pratica, crede che lo sviluppo “spirale” tra due approcci: rotta insieme modelli specializzati, quindi cercando di consolidarli in uno. I fattori decisivi saranno i costi di ingegneria, i limiti di calcolo e energetici e le pressioni aziendali.
Anche la narrativa AGI accidentata potrebbe aver bisogno di adattarsi. “Se qualcuno fa qualcosa che è vicino all’AGI, non so se sarà letteralmente una serie di pesi che lo fanno”, ha detto Falcon, riferendosi al “cervello” dietro LLMS. “Se è una raccolta di modelli che sembra AGI, va bene. Nessuno è un purista qui.”