Gli addetti ai lavori affermano che il futuro dell’intelligenza artificiale sarà più piccolo ed economico di quanto si pensi

Gli addetti ai lavori affermano che il futuro dell’intelligenza artificiale sarà più piccolo ed economico di quanto si pensi



La recente analisi di HSBC su la sfida finanziaria che OpenAI deve affrontare mostra quanto sia imponente la portata del pensiero dell’azienda. Afferma già un fatturato di 20 miliardi di dollari. Si è impegnata a stanziare 1,4 trilioni di dollari per costruire i nuovi data center che alimenteranno la sua interfaccia ChatGPT. E anche se riuscirà a generare entrate per oltre 200 miliardi di dollari entro il 2030, avrà comunque bisogno di ulteriori 207 miliardi di dollari di finanziamenti per sopravvivere.

Sono somme enormi.

Ma una dozzina circa di addetti ai lavori dell’IA con cui hanno parlato Fortuna recentemente al Web Summit di Lisbona ha descritto un futuro diverso per l’intelligenza artificiale. Quel futuro, dicono, è caratterizzato da operazioni di intelligenza artificiale molto più piccole che spesso ruotano attorno ad “agenti” di intelligenza artificiale che svolgono compiti specializzati e di nicchia, e quindi non hanno bisogno dei giganteschi modelli linguistici su larga scala che sono alla base di OpenAI, o Gemini di Google, o Claude di Anthropic.

“La loro valutazione si basa sul principio più grande è meglio, il che non è necessariamente il caso”, ha detto a Fortune Babak Hodjat, capo dell’IA di Cognizant.

“Utilizziamo modelli linguistici di grandi dimensioni. Non abbiamo bisogno di quelli più grandi. C’è una soglia oltre la quale un modello linguistico di grandi dimensioni è in grado di seguire istruzioni in un dominio limitato, ed è in grado di utilizzare strumenti e comunicare effettivamente con altri agenti”, ha affermato. “Se quella soglia viene superata, è sufficiente.”

Ad esempio, quando DeepSeek ha lanciato un nuovo modello lo scorso gennaio, ha innescato una svendita dei titoli tecnologici perché, secondo quanto riferito, il suo sviluppo sarebbe costato solo pochi milioni di dollari. Inoltre continuava a funzionare un modello che utilizzava meno parametri per richiestamolto più piccolo del ChatGPT di OpenAI, ma altrettanto capace, ha detto Hodjat. Una volta al di sotto di una certa dimensione, alcuni modelli non necessitano di data center: possono funzionare su un MacBook, ha affermato. “Questa è la differenza, e questa è la tendenza”, ha detto.

Numerose aziende stanno orientando i propri servizi attorno ad agenti o app IA, partendo dal presupposto che gli utenti vorranno che app specifiche facciano cose specifiche. Superhuman, ex Grammarly, gestisce un app store pieno di “agenti IA che possono essere inseriti nel browser o in una qualsiasi delle migliaia di app per cui Grammarly ha già il permesso di funzionare”, secondo il CEO Shishir Mehrotra.

In Mozilla, il CEO Laura Chambers ha una strategia simile per il browser Firefox. “Abbiamo alcune funzionalità di intelligenza artificiale, come la funzione ‘scuoti per riepilogare’, raggruppamento di schede intelligenti mobili, anteprime di collegamenti, traduzioni che utilizzano tutte l’intelligenza artificiale. Ciò che facciamo con loro è eseguirli tutti localmente, in modo che i dati non lascino mai il tuo dispositivo. Non sono condivisi con i modelli, non sono condivisi con gli LLM. Abbiamo anche un piccolo slideout in cui puoi scegliere il tuo modello con cui vuoi lavorare e utilizzare l’intelligenza artificiale in quel modo”, ha affermato.

Presso il produttore di chip ARM, il capo della strategia/CMO Ami Badani ha dichiarato a Fortune che la società è indipendente dal modello. “Quello che facciamo è creare estensioni personalizzate sopra LLM per casi d’uso molto specifici. Perché, ovviamente, quei casi d’uso variavano in modo abbastanza drammatico da azienda ad azienda”, ha affermato.

Questo approccio, in cui gli agenti IA altamente focalizzati operano come attività separate, è in contrasto con le massicce piattaforme IA generiche. In futuro, ha chiesto una fonte Fortunautilizzerai ChatGPT per prenotare una camera d’albergo che soddisfi le tue esigenze specifiche (magari vuoi una camera con vasca invece che doccia o con vista rivolta a ovest?) oppure utilizzeresti un agente specializzato che ha un database profondo un miglio al di sotto di esso che soltanto contiene i dati dell’hotel?

Questo approccio sta attirando importanti investimenti. IBM Ventures, un fondo di venture capital da 500 milioni di dollari incentrato sull’intelligenza artificiale, ha investito in alcuni sforzi di intelligenza artificiale decisamente poco affascinanti che riempiono nicchie aziendali oscure. Uno di questi investimenti è in una società denominata Not Diamond. Questa startup ha notato che l’85% delle aziende che utilizzano l’intelligenza artificiale utilizzano più di un modello di intelligenza artificiale. Alcuni modelli sono migliori di altri in compiti diversi, quindi scegliere il modello giusto per il compito giusto può diventare un’importante scelta strategica per un’azienda. Not Diamond crea un “router modello” che invia automaticamente il tuo compito al modello migliore.

“Hai bisogno di qualcuno che ti aiuti a capirlo. Noi di IBM crediamo in una strategia di modello adatta allo scopo, il che significa che hai bisogno del modello giusto per il giusto carico di lavoro. Quando hai un modello di router in grado di aiutarti a farlo, fa un’enorme differenza”, ha detto a Fortune Emily Fontaine, venture chief di IBM.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top