Nell’ultimo turno di atmosfera della Silicon Valley, i principali capi di AI non sono più così ansiosi di parlare di AGI

Nell’ultimo turno di atmosfera della Silicon Valley, i principali capi di AI non sono più così ansiosi di parlare di AGI



C’era una volta, il che significa, Um, di recente come all’inizio di quest’anno – Silicon Valley non poteva smettere di parlare di AGI.

Il CEO di Openi Sam Altman ha scritto a gennaio “Siamo ora fiduciosi di sapere come costruire AGI”. Questo dopo aver detto a un vodcast del combinatori Y alla fine del 2024 che AGI potrebbe essere raggiunto nel 2025 e twittato nel 2024 che Openai aveva “ottenuto l’agi internamente”. Openai era così entusiasta di Agit che il suo capo delle vendite ha soprannominato il suo team “Agi Sherpas” e il suo ex capo scienziato Ilya Sutskever ha guidato i colleghi ricercatori in canti da falò di “Feel the Agi!”

Il partner di Openi e il principale sostenitore finanziario Microsoft Metti fuori un documento nel 2024, rivendicando il modello AI GPT-4 di Openi, mostrava “Sparks of AGI”. Nel frattempo, Elon Musk ha fondato Xai nel marzo 2023 con la missione di costruire AGI, uno sviluppo che ha detto potrebbe verificarsi non appena il 2025 o il 2026. Demis Hassabis, co-fondatore del Nobel-Loureate DeepMindha detto ai giornalisti che il mondo era “sulla cuspide” di AGI. Meta Il CEO Mark Zuckerberg ha affermato che la sua azienda è impegnata a “costruire intelligence generale” per alimentare la prossima generazione dei suoi prodotti e servizi. Dario Amodei, cofondatore e CEO di Antropico, mentre diceva che non piaceva il termine AGI, disse che “potente AI” poteva arrivare entro il 2027 e inaugurare in una nuova era di salute e abbondanza, se non finisse per ucciderci tutti. Eric Schmidt, il primo Google Il CEO è diventato importante investitore tecnologico, ha dichiarato in un discorso che avremmo avuto AGI “entro tre o cinque anni”.

Ora la febbre AGI si sta spezzando, in cosa equivale a un’atmosfera all’ingrosso che si sposta verso il pragmatismo invece di inseguire le visioni utopiche. Ad esempio, a un’apparizione della CNBC quest’estate, Altman ha definito Agi “non un termine super utili.” Nel New York TimesSchmidt – sì, lo stesso ragazzo che stava parlando AGI ad aprile – ha suonato la Silicon Valley per smettere di fissarsi sull’intelligenza artificiale sovrumana, avvertendo che l’ossessione distrae dalla costruzione di tecnologie utili. Sia il pioniere dell’IA Andrew Ng che gli US Ai Czar David Sacks hanno definito AGI “DOVEPED”.

AGI: poco definito e troppo ipotizzato

Quello che è successo? Bene, prima, un po ‘di sfondo. Tutti concordano sul fatto che AGI sia per “intelligenza generale artificiale”. E questo è praticamente tutto quello con cui tutti sono d’accordo. Le persone definiscono il termine in modi sottili, ma soprattutto, diversi. Tra i primi a usare il termine c’era il fisico Mark Avrum Gubrud, che in un articolo di ricerca del 1997 scrisse che “mediante intelligenza generale artificiale avanzata, intendo sistemi di intelligenza artificiale che conducono o superano il cervello umano in complessità e velocità, che possono acquisire, manipolare e ragionare con le conoscenze generali e che sono essenzialmente utilizzabili in qualsiasi fase di fase industriale o militare in cui un’intelligenza umana sarebbe altrimenti necessaria”.

Il termine è stato successivamente raccolto e reso popolare dal ricercatore dell’IA Shane Legg, che avrebbe continuato a co-fondarsi su Google DeepMind con Hassabis e colleghi scienziati informatici Ben Goertzel e Peter Voss nei primi anni 2000. Hanno definito AGI, secondo Voss, come un sistema di intelligenza artificiale che potrebbe imparare a “svolgere in modo affidabile qualsiasi compito cognitivo che un essere umano competente può”. Quella definizione ha avuto alcuni problemi, ad esempio chi decide chi si qualifica come un essere umano competente? E, da allora, altri ricercatori di intelligenza artificiale hanno sviluppato diverse definizioni che vedono AGI come AI che è capace quanto qualsiasi esperto umano in tutti i compiti, al contrario di una semplice persona “competente”. Openai è stata fondata alla fine del 2015 con la missione esplicita di sviluppare AGI “a beneficio di tutti” e ha aggiunto la propria svolta al dibattito sulla definizione dell’AGI. La Carta dell’azienda afferma che AGI è un sistema autonomo in grado di “sovraperformare gli esseri umani nel maggior numero di lavori economicamente preziosi”.

Ma qualunque sia l’AGI, la cosa importante in questi giorni, a quanto pare, non è quella di parlarne. E il motivo per cui ha a che fare con le crescenti preoccupazioni sul fatto che il progresso nello sviluppo dell’IA potrebbe non essere in avanti così velocemente rispetto agli addetti ai lavori di industria solo pochi mesi fa e alle crescenti indicazioni che tutti i discorsi dell’AGI stessero alimentando le aspettative gonfiate che la tecnologia stessa non poteva essere all’altezza.

Tra i maggiori fattori nell’improvvisa caduta di AGI dalla grazia, sembra essere stato il lancio del modello GPT-5 di Openi all’inizio di agosto. Poco più di due anni dopo l’affermazione di Microsoft secondo cui GPT-4 ha mostrato “scintille” di AGI, il nuovo modello è atterrato con un tonfo: miglioramenti incrementali avvolti in un’architettura di routing, non la svolta che molti si aspettavano. Goertzel, che ha aiutato a coniare la frase AGI, ha ricordato al pubblico che mentre GPT-5 è impressionante, non rimane in nessun luogo vicino a True Agi, che ha una vera comprensione, un apprendimento continuo o un’esperienza radicata.

Il ritiro di Altman dalla lingua AGI è particolarmente sorprendente data la sua posizione precedente. Openi è stato costruito su AGI Hype: AGI è nella missione fondatrice dell’azienda, ha contribuito a raccogliere miliardi di capitali e è alla base della partnership con Microsoft. Una clausola nel loro accordo afferma persino che se il consiglio senza scopo di lucro di Openai dichiara di aver raggiunto l’AGI, l’accesso di Microsoft alla tecnologia futura sarebbe limitato. Microsoft, dopo che investe più di $ 13 miliardi, secondo quanto riferito sta spingendo a rimuovere quella clausola e ha persino preso in considerazione l’idea di allontanarsi dall’accordo. Cablato Secondo anche un dibattito interno Openi su se la pubblicazione di un documento sulla misurazione dei progressi dell’IA potrebbe complicare la capacità della società di dichiararlo di aver raggiunto l’AGI.

Un cambio di atmosfera “molto sano”

Ma se gli osservatori pensano che il turno di atmosfera sia una mossa di marketing o una risposta del mercato, molti, in particolare sul lato aziendale, affermano che è una buona cosa. Shay Boloor, capo stratega del mercato di Futurum Equities, ha definito la mossa “molto sana”, osservando che i mercati premiano l’esecuzione, non le vaghi narrazioni di “superintelligenza un giorno”.

Altri sottolineano che il vero turno è lontano da una fantasia monolitica AGI, verso le “superintelligenze” specifiche del dominio. Daniel Saks, CEO dell’agente AI Company Landbase, ha sostenuto che “il ciclo di hype intorno ad AGI si è sempre basato sull’idea di una singola AI centralizzata che diventa onnisciente”, ma ha detto che non è quello che vede accadere. “Il futuro risiede in modelli decentralizzati e specifici del dominio che ottengono prestazioni sovrumane in campi particolari”, ha detto Fortuna.

Christopher Symons, capo scienziato di intelligenza artificiale della piattaforma di salute digitale Lirio, ha affermato che il termine AGI non è mai stato utile: quelli che promuovono AGI, ha spiegato: “Allontana le risorse da applicazioni più concrete in cui i progressi dell’IA possono beneficiare immediatamente la società”.

Tuttavia, il ritiro dalla retorica AGI non significa che la missione – o la frase – sia svanita. I dirigenti antropici e di DeepMind continuano a definirsi “Agi-pillet”, che è un po ‘di gergo da addetto ai lavori. Anche quella frase è contestata, però; Per alcuni si riferisce alla convinzione che l’AGI sia imminente, mentre altri affermano che è semplicemente la convinzione che i modelli AI continueranno a migliorare. Ma non c’è dubbio che c’è più copertura e minimizzatura che raddoppiarsi.

Alcuni chiamano ancora rischi urgenti

E per alcuni, quella copertura è esattamente ciò che rende i rischi più urgenti. Ha detto l’ex ricercatore di Openi Steven Adler Fortuna: “Non dovremmo perdere di vista che alcune aziende di intelligenza artificiale mirano esplicitamente a costruire sistemi più intelligenti di qualsiasi essere umano. L’intelligenza artificiale non c’è ancora, ma qualunque cosa tu chiami questo, è pericoloso e richiede una vera serietà.”

Altri accusano i leader dell’IA di cambiare la loro melodia su AGI per confondere le acque nel tentativo di evitare la regolamentazione. Max Tegmark, presidente del Future of Life Institute, afferma che Altman definisce Agi “non un termine utile” non è l’umiltà scientifica, ma un modo per l’azienda di evitare la regolamentazione mentre continua a costruire su modelli sempre più potenti.

“È più intelligente per loro parlare di AGI in privato con i loro investitori”, ha detto a Fortune, aggiungendo che “è come un venditore di cocaina che dice che non è chiaro se la cocaina sia davvero una droga”, perché è così complessa e difficile da decifrare.

Chiamalo Agi o chiamalo qualcos’altro: l’hype può svanire e l’atmosfera può cambiare, ma con così tanto in linea, dal denaro e da posti di lavoro alla sicurezza e alla sicurezza, le vere domande su dove questa gara è appena all’inizio.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top