AI Godfather avverte l’umanità rischia di estinzione da parte di macchine iperintelligenti con i loro “obiettivi di conservazione” entro 10 anni

AI Godfather avverte l’umanità rischia di estinzione da parte di macchine iperintelligenti con i loro “obiettivi di conservazione” entro 10 anni



Il cosiddetto “Padrino dell’IA”, Yoshua Bengio, afferma che le compagnie tecnologiche che corrono per l’IA Dominance potrebbero avvicinarci alla nostra stessa estinzione attraverso la creazione di macchine con “obiettivi di conservazione”.

Bengio, professore all’Università di Montréal noto per il suo lavoro fondamentale legato al profondo apprendimento, ha da anni avvertito delle minacce Presentato da un’intelligenza artificiale iperintelligente, ma il rapido ritmo di sviluppo è continuato nonostante i suoi avvertimenti. Negli ultimi sei mesi, Openi, Antropic, Xai di Elon Musk e Google’s Gemini, hanno rilasciato tutti nuovi modelli o aggiornamenti mentre cercano di farlo Vinci la gara AI. Sam Altman, CEO di Openai previsto L’intelligenza artificiale supererà l’intelligenza umana entro la fine del decennio, mentre altri leader tecnologici hanno detto che il giorno potrebbe arrivare ancora prima.

Tuttavia, Bengio afferma che questo rapido sviluppo è una potenziale minaccia.

“Se costruiamo macchine che sono molto più intelligenti di noi e abbiamo i loro obiettivi di conservazione, è pericoloso. È come creare un concorrente per l’umanità che è più intelligente di noi”, Bengio detto IL Wall Street Journal.

Poiché sono addestrati sul linguaggio e sul comportamento umani, questi modelli avanzati potrebbero potenzialmente persuadere e persino manipolare gli umani per raggiungere i loro obiettivi. Tuttavia, gli obiettivi dei modelli di intelligenza artificiale potrebbero non allinearsi sempre agli obiettivi umani, ha affermato Bengio.

“Recenti esperimenti mostrano che in alcune circostanze in cui l’IA non ha altra scelta se non tra la sua conservazione, il che significa che gli obiettivi che sono stati dati e facendo qualcosa che provoca la morte di un essere umano, potrebbero scegliere la morte dell’uomo per preservare i loro obiettivi”, ha affermato.

Chiama per la sicurezza dell’IA

Diversi esempi negli ultimi anni mostrano che l’IA può convincere gli umani a credere alle nonrezze, anche con quelli con Nessuna storia di malattia mentale. D’altra parte, esistono alcune prove che AI può anche essere convintousando tecniche di persuasione per l’uomo, per dare risposte, di solito sarebbe vietato dare.

Per Bengio, tutto ciò si aggiunge a una prova più prova che terze parti indipendenti devono dare un’occhiata più da vicino alle metodologie di sicurezza delle società di intelligenza artificiale. A giugno, Bengio ha anche lanciato il non profit Lawzero con $ 30 milioni in finanziamenti per creare una cassaforte “Non agentico” AI che può aiutare a garantire la sicurezza di altri sistemi creati da grandi aziende tecnologiche.

Altrimenti, Bengio prevede che potremmo iniziare a vedere gravi rischi dai modelli di intelligenza artificiale in cinque o dieci anni, ma ha avvertito che gli umani dovrebbero prepararsi nel caso in cui tali rischi aumentino prima del previsto.

“La cosa con eventi catastrofici come l’estinzione e ancora meno eventi radicali che sono ancora catastrofici come distruggere le nostre democrazie, è che sono così cattivi che anche se ci fosse solo una probabilità dell’1% che potesse accadere, non è accettabile”, ha detto.

Forum Global Fort Ritorna dal 26 al 27 ottobre 2025 a Riyadh. Gli amministratori delegati e i leader globali si riuniranno per un evento dinamico e solo su invito che modella il futuro del business. Richiedere un invito.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top