OpenAI sta assumendo un responsabile della preparazione, che guadagnerà $ 555.000

OpenAI sta assumendo un responsabile della preparazione, che guadagnerà $ 555.000



OpenAI è alla ricerca di un nuovo dipendente che lo aiuti ad affrontare i crescenti pericoli dell’intelligenza artificiale e l’azienda tecnologica è disposta a spendere più di mezzo milione di dollari per ricoprire il ruolo.

OpenAI sta assumendo un “responsabile della preparazione” per ridurre i danni associati alla tecnologia, come la salute mentale degli utenti e la sicurezza informatica, ha scritto il CEO Sam Altman in un X posta di sabato. La posizione pagherà $ 555.000 all’anno, più capitale proprio, secondo il elenco di lavoro.

“Sarà un lavoro stressante e ti immergerai nel profondo praticamente immediatamente”, ha detto Altman.

La spinta di OpenAI ad assumere un responsabile della sicurezza arriva in un momento in cui le crescenti preoccupazioni delle aziende sui rischi dell’IA sulle operazioni e sulla reputazione. Un novembre analisi dei documenti annuali della Securities and Exchange Commission da parte della società di analisi e dati finanziari AlphaSense ha rilevato che nei primi 11 mesi dell’anno, 418 aziende per un valore di almeno 1 miliardo di dollari hanno citato danni alla reputazione associati a fattori di rischio legati all’intelligenza artificiale. Questi rischi che mettono a rischio la reputazione includono set di dati di intelligenza artificiale che mostrano informazioni distorte o mettono a repentaglio la sicurezza. Secondo l’analisi, le segnalazioni di danni alla reputazione legati all’intelligenza artificiale sono aumentate del 46% rispetto al 2024.

“I modelli stanno migliorando rapidamente e ora sono capaci di molte grandi cose, ma stanno anche iniziando a presentare alcune sfide reali”, ha affermato Altman nel post sui social media.

“Se vuoi aiutare il mondo a capire come dotare i difensori della sicurezza informatica di capacità all’avanguardia garantendo al tempo stesso che gli aggressori non possano usarli per fare danni, idealmente rendendo tutti i sistemi più sicuri, e allo stesso modo per come liberiamo capacità biologiche e acquisiamo fiducia nella sicurezza dei sistemi in esecuzione che possono auto-migliorarsi, per favore considera di candidarti”, ha aggiunto.

Il precedente responsabile della preparazione di OpenAI era Aleksander Madry riassegnato l’anno scorso a un ruolo legato al ragionamento sull’intelligenza artificiale, con la sicurezza dell’intelligenza artificiale una parte correlata del lavoro.

Gli sforzi di OpenAI per affrontare i pericoli dell’IA

Fondata nel 2015 come organizzazione no-profit con l’intenzione di utilizzare l’intelligenza artificiale per migliorare e avvantaggiare l’umanità, OpenAI, agli occhi di alcuni dei suoi ex leader, ha faticato a dare priorità al proprio impegno per lo sviluppo tecnologico sicuro. L’ex vicepresidente della ricerca dell’azienda, Dario Amodei, insieme alla sorella Daniela Amodei e ad alcuni altri ricercatori, lasciato OpenAI nel 2020, in parte a causa delle preoccupazioni, l’azienda dava priorità al successo commerciale rispetto alla sicurezza. Amodei fonda Anthropic l’anno successivo.

OpenAI ha ha affrontato numerose cause legali per omicidio colposo quest’anno, il presunto ChatGPT incoraggiava le delusioni degli utenti e affermava che le conversazioni con il bot erano collegate ai suicidi di alcuni utenti. UN New York Times indagine pubblicato a novembre ha rilevato quasi 50 casi di utenti ChatGPT che hanno avuto crisi di salute mentale mentre conversavano con il bot.

OpenAI ha affermato ad agosto che le sue funzionalità di sicurezza potrebbero “degradarsi” a seguito di lunghe conversazioni tra utenti e ChatGPT, ma la società ha apportato modifiche per migliorare il modo in cui i suoi modelli interagiscono con gli utenti. Esso creò un consiglio di otto persone all’inizio di quest’anno per consigliare l’azienda sui guardrail per supportare il benessere degli utenti e ha ChatGPT aggiornato per rispondere meglio alle conversazioni delicate e aumentare l’accesso alle hotline di crisi. All’inizio del mese, l’azienda sovvenzioni annunciate finanziare la ricerca sull’intersezione tra intelligenza artificiale e salute mentale.

L’azienda tecnologica ha anche ammesso la necessità di migliorare le misure di sicurezza, affermando in a articolo del blog questo mese alcuni dei suoi prossimi modelli potrebbero presentare un rischio “elevato” per la sicurezza informatica man mano che l’intelligenza artificiale avanza rapidamente. L’azienda sta adottando misure, come modelli di formazione per non rispondere a richieste che compromettono la sicurezza informatica e il perfezionamento dei sistemi di monitoraggio, per mitigare tali rischi.

“Abbiamo una solida base per misurare le capacità di crescita”, ha scritto sabato Altman. “Ma stiamo entrando in un mondo in cui abbiamo bisogno di una comprensione e di una misurazione più sfumate di come si potrebbe abusare di tali capacità e di come possiamo limitare questi svantaggi sia nei nostri prodotti che nel mondo, in un modo che consenta a tutti noi di godere degli enormi benefici”.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top