Non annaffiare le regole dell’IA in Europa per compiacere Trump, avvertono i legislatori dell’UE

Non annaffiare le regole dell’IA in Europa per compiacere Trump, avvertono i legislatori dell’UE



I legislatori che hanno contribuito a modellare la legge sull’intelligenza artificiale dell’Unione europea sono preoccupati che il blocco di 27 membri stia prendendo in considerazione la riduzione degli aspetti delle regole dell’intelligenza artificiale di fronte alle pressioni delle società tecnologiche statunitensi e le pressioni dell’amministrazione Trump.

IL Ho l’atto è stato approvato poco più di un anno fa, ma le sue regole per i modelli di intelligenza artificiale per lo scopo generale come GPT-4O di Openai entreranno in vigore solo ad agosto. Prima di ciò, la Commissione europea – che è il braccio esecutivo dell’UE – ha incaricato il suo nuovo ufficio di intelligenza artificiale di preparare un codice di pratica per le grandi aziende di intelligenza artificiale, spiegando come saranno esattamente necessari per rispettare la legislazione.
Ma ora un gruppo di legislatori europei, che hanno contribuito a perfezionare la lingua della legge mentre attraversava il processo legislativo, sta esprimendo la preoccupazione per il fatto che l’ufficio dell’IA eliminerà l’impatto della legge UE AI in modi “pericolosi, non democratici”. I principali venditori di intelligenza artificiale americani hanno recentemente ampliato le loro pressioni contro parti della legge UE AI e i legislatori sono anche preoccupati che la Commissione possa cercare di fare il favore dell’amministrazione Trump, che ha già chiarito che vede l’atto di AI come anti-innovazione e anti-americana.
I legislatori dell’UE affermano che la terza bozza del codice, che l’ufficio dell’IA ha pubblicato all’inizio di questo mese, prende obblighi obbligatori ai sensi della legge AI e li presenta in modo inaccuratamente “interamente volontario”. Questi obblighi includono i modelli di test per vedere come potrebbero consentire cose come la discriminazione su larga scala e la diffusione della disinformazione.

In una lettera inviata martedì al vicepresidente della Commissione europea e capo dell’henné Virkkunen, riportato per la prima volta dal Tempi finanziari Ma pubblicati per intero per la prima volta di seguito, attuali ed ex legislatori hanno affermato che fare questi test di modello volontari potrebbe potenzialmente consentire alle società di intelligenza artificiale di deformare le elezioni europee, limitare la libertà di informazione e interrompere l’economia dell’UE.

“Nell’attuale situazione geopolitica, è più importante che mai l’UE aumenta la sfida e sia forte sui diritti fondamentali e sulla democrazia”, ​​hanno scritto.

Brando Benifei, che è stato uno dei negoziatori principali del Parlamento europeo sul testo della legge AI e il primo firmatario della lettera di questa settimana, ha detto Fortuna Mercoledì che il clima politico potrebbe avere qualcosa a che fare con l’irrigazione del codice di pratica. La seconda amministrazione Trump è antagonista verso la regolamentazione della tecnologia europea; Vicepresidente JD Vance avvertito In un discorso infuocato al Summit di Ai Ai di Parigi a febbraio che “rafforzare le viti sulle compagnie tecnologiche statunitensi” sarebbe un “terribile errore” per i paesi europei.

“Penso che ci sia una pressione proveniente dagli Stati Uniti, ma sarebbe molto ingenuo (pensare) che possiamo rendere felice l’amministrazione Trump andando in questa direzione, perché non sarebbe mai sufficiente”, ha detto Benifei, che attualmente presiede la delegazione del Parlamento europeo per le relazioni con gli Stati Uniti.

Benifei ha affermato che lui e altri ex negoziatori di AI Act hanno incontrato gli esperti dell’ufficio dell’IA della Commissione, che martedì stanno redigendo il codice di pratica. Sulla base di quell’incontro, ha espresso ottimismo sul fatto che le modifiche offensive potessero essere ridotte prima che il codice fosse finalizzato.

“Penso che i problemi che abbiamo sollevato siano stati considerati e quindi c’è spazio per il miglioramento”, ha detto. “Lo vedremo nelle prossime settimane.”

Virkkunen non aveva fornito una risposta alla lettera, né al commento di Benifei sulla pressione degli Stati Uniti, al momento della pubblicazione. Tuttavia, ha precedentemente insistito Che le regole tecnologiche dell’UE siano applicate in modo equo e coerente alle aziende di qualsiasi paese. La commissaria della concorrenza Teresa Ribera ha anche sostenuto che l’UE “non può transarsi sui diritti umani (o) democrazia e valori” per placare gli Stati Uniti

Obblighi mutevoli

La parte fondamentale dell’atto AI qui è Articolo 55che pone obblighi significativi sui fornitori di modelli di intelligenza artificiale per scopi generali che presentano “rischio sistemico”-un termine che la legge definisce come significato che il modello potrebbe avere un impatto notevole sull’economia dell’UE o ha “effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza pubblica, la sicurezza pubblica, i diritti fondamentali o la società nel suo insieme, che può essere propagato su scala”.

La legge afferma che si può presumere che un modello abbia un rischio sistemico se la potenza computazionale utilizzata nella sua formazione “misurata nelle operazioni di punta mobile (flop) è maggiore di 1025. ” Questo probabilmente include Molti dei modelli di intelligenza artificiale più potenti di oggi, sebbene la Commissione europea possa anche designare qualsiasi modello per scopi generali come un rischio sistemico se i suoi consulenti scientifici lo raccomandano di farlo.

Secondo la legge, i fornitori di tali modelli devono valutarli “al fine di identificare e mitigare” eventuali rischi sistemici. Questa valutazione deve includere test contraddittori, in altre parole, cercando di convincere il modello a fare cose cattive, per capire cosa deve essere salvaguardato. Devono quindi dire all’ufficio della Commissione europea della valutazione e di ciò che ha trovato.

Questo è dove il Terza versione della bozza del codice di pratica diventa problematico.

La prima versione del codice era chiara che le società di intelligenza artificiale devono trattare la disinformazione su larga scala o la disinformazione come rischi sistemici durante la valutazione dei loro modelli, a causa della loro minaccia ai valori democratici e del loro potenziale per l’interferenza elettorale. La seconda versione non ha parlato specificamente di disinformazione o disinformazione, ma ha comunque affermato che “la manipolazione su larga scala con rischi per diritti fondamentali o valori democratici”, come l’interferenza elettorale, era un rischio sistemico.

Entrambe le prime e le seconde versioni erano anche chiare che i fornitori di modelli dovrebbero considerare la possibilità di discriminazione su larga scala come un rischio sistemico.

Ma la terza versione elenca solo i rischi per i processi democratici e a Diritti europei fondamentali come la non discriminazione, come “per potenziale considerazione nella selezione dei rischi sistemici”. Il riepilogo ufficiale delle modifiche nella terza bozza sostiene che si tratta di “ulteriori rischi che i fornitori possono scegliere di valutare e mitigare in futuro”.

Nella lettera di questa settimana, i legislatori che hanno negoziato con la Commissione per il testo finale della legge hanno insistito sul fatto che “questa non è mai stata l’intenzione” dell’accordo che hanno stretto.

“I rischi per i diritti fondamentali e la democrazia sono i rischi sistemici che i fornitori di intelligenza artificiale di maggior impatto devono valutare e mitigare”, si legge nella lettera. “È pericoloso, non democratico e crea incertezza legale per reinterpretare e restringere completamente un testo legale che i co-legislatori hanno concordato, attraverso un codice di pratica.”

Questa storia era originariamente presente su Fortune.com



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top