Workday, Amazon AI BIAS per l’occupazione Aggiungete a crescenti preoccupazioni per la discriminazione di assunzione della tecnologia

Workday, Amazon AI BIAS per l’occupazione Aggiungete a crescenti preoccupazioni per la discriminazione di assunzione della tecnologia



Nonostante i migliori sforzi degli strumenti di assunzione di intelligenza artificiale per semplificare i processi di assunzione per un pool crescente di candidati, la tecnologia destinata ad aprire le porte per una gamma più ampia di potenziali dipendenti potrebbe effettivamente perpetuare modelli di discriminazione decenni.

Gli strumenti di assunzione di AI sono diventati onnipresenti, con 492 delle società Fortune 500 Utilizzo di sistemi di tracciamento dei candidati per semplificare il reclutamento e l’assunzione nel 2024, secondo la piattaforma di applicazione di lavoro JobScan. Mentre questi strumenti possono aiutare i datori di lavoro a proiettare più candidati di lavoro e aiutare a identificare l’esperienza pertinente, le risorse umane ed esperti legali avvertono una formazione e l’implementazione improprie delle tecnologie di assunzione possono proliferare pregiudizi.

La ricerca offre prove rigide della discriminazione di assunzione di AI. La scuola di informazione dell’Università di Washington ha pubblicato a studio L’anno scorso ha scoperto che nelle proiezioni di curriculum assistite da nove professioni utilizzando 500 applicazioni, la tecnologia ha favorito i nomi associati al bianco nell’85,1% dei casi e nomi associati alle donne solo nell’11,1% dei casi. In alcune impostazioni, i partecipanti maschi neri sono stati svantaggiati rispetto alle loro controparti maschi bianche fino al 100% dei casi.

“In un certo senso ottieni questo ciclo di feedback positivo, stiamo allenando modelli distorti su dati sempre più distorti”, ha detto Kyra Wilson, una studentessa di dottorato presso la University of Washington Information School e l’autore principale dello studio, Fortuna. “Non sappiamo davvero un po ‘dove si trova il limite superiore di ciò, di quanto sia brutto prima che questi modelli smettano di funzionare del tutto.”

Alcuni lavoratori affermano di vedere prove di questa discriminazione al di fuori di semplici contesti sperimentali. Il mese scorso, cinque querelanti, di 40 anni, hanno rivendicato in a causa legale collettiva Quella società di software di gestione del luogo di lavoro Workday ha una tecnologia di screening dei candidati discriminatori. Il querelante Derek Mobley ha affermato in una causa iniziale lo scorso anno, gli algoritmi della società lo hanno fatto respingere da oltre 100 posti di lavoro in sette anni a causa della sua razza, età e disabilità.

Workday ha negato le richieste di discriminazione e ha dichiarato in una dichiarazione a Fortuna La causa è “senza merito”. Il mese scorso la compagnia annunciato Ha ricevuto due accreditamenti di terze parti per il suo “impegno nello sviluppo di AI in modo responsabile e trasparente”.

“Gli strumenti di reclutamento di AI di Workday non prendono decisioni di assunzione e i nostri clienti mantengono il pieno controllo e la supervisione umana del loro processo di assunzione”, ha affermato la società. “Le nostre funzionalità di intelligenza artificiale esaminano solo le qualifiche elencate nella domanda di lavoro di un candidato e le confrontano con le qualifiche che il datore di lavoro ha identificato come necessario per il lavoro. Non sono addestrati a utilizzare – o persino identificare – caratteristiche protette come razza, età o disabilità.”

Non sono solo strumenti di assumere con cui i lavoratori stanno mettendo in discussione. Una lettera inviata a Amazon I dirigenti, incluso il CEO Andy Jassy, ​​per conto di 200 dipendenti con disabilità hanno affermato che la società ha infranto il Act Americans with Disabilities Act. Amazon presumibilmente ha avuto i dipendenti prendere decisioni su alloggi in base ai processi di intelligenza artificiale che non rispettano gli standard ADA, Il Guardian riportato Questa settimana. Amazon ha detto Fortuna La sua intelligenza artificiale non prende decisioni finali sulle sistemazioni dei dipendenti.

“Comprendiamo l’importanza dell’uso responsabile dell’intelligenza artificiale e seguiamo le linee guida solide e i processi di revisione per garantire che costruiamo integrazioni di intelligenza artificiale in modo pensieroso ed equo”, ha detto un portavoce a un portavoce Fortuna in una dichiarazione.

In che modo gli strumenti di assumere AI possono essere discriminatori?

Proprio come con qualsiasi applicazione AI, la tecnologia è intelligente solo come le informazioni che vengono alimentate. La maggior parte degli strumenti di assunzione di intelligenza artificiale funziona con lo screening riprende o riprendono lo screening valutando le domande di intervista, secondo Elaine Pulakos, CEO dello sviluppatore di Talent Assessment PDRI da Pearson. Sono addestrati con il modello esistente di un’azienda di valutazione dei candidati, il che significa che se i modelli sono alimentati con i dati esistenti di un’azienda, come i guasti demografici che mostrano una preferenza per i candidati maschi o le università della Ivy League – è probabile che perpetuano i pregiudizi di assunzione che possono portare a “risultati dispari”, ha detto Pulakos.

“Se non hai la garanzia delle informazioni sui dati su cui stai allenando l’IA e non stai controllando per assicurarti che l’IA non vada fuori dai binari e inizi ad allucinare, facendo cose strane lungo la strada, andrai a ottenere cose strane in corso”, ha detto Fortuna. “È solo la natura della bestia.”

Gran parte dei pregiudizi dell’IA provengono dai pregiudizi umani e, quindi, secondo il professore di diritto della Washington University Pauline Kim, la discriminazione di assunzione di AI esiste a causa della discriminazione di assunzione umana, che è ancora prevalente oggi. A Landmark 2023 Northwestern University Meta-analisi Di 90 studi in sei paesi hanno riscontrato pregiudizi persistenti e pervasivi, tra cui che i datori di lavoro hanno chiamato i candidati bianchi in media il 36% in più rispetto ai candidati neri e il 24% in più rispetto ai candidati latini con riprese identiche.

Il rapido ridimensionamento dell’IA sul posto di lavoro può ventilare queste fiamme della discriminazione, secondo Victor Schwartz, direttore associato della gestione tecnica dei prodotti della piattaforma di ricerca di lavoro remota Bold.

“È molto più facile costruire un sistema di intelligenza artificiale equo e quindi ridimensionarlo al lavoro equivalente di 1.000 ore di ore, piuttosto che addestrare 1.000 ore a essere oneste”, ha detto Schwartz Fortuna. “Poi di nuovo, è molto più facile renderlo molto discriminatorio, piuttosto che addestrare 1.000 persone a essere discriminatorie.”

“Stai appiattindo la curva naturale che faresti attraverso un gran numero di persone”, ha aggiunto. “Quindi c’è un’opportunità lì. C’è anche un rischio.”

Come le risorse umane e gli esperti legali stanno combattendo l’IA che assume pregiudizi

Mentre i dipendenti sono protetti dalla discriminazione sul posto di lavoro attraverso la Commissione per le pari opportunità di lavoro e il titolo VII del Civil Rights Act del 1964, “non ci sono in realtà alcuna regolamento formale sulla discriminazione del lavoro nell’intelligenza artificiale”, ha affermato il professor Kim.

La legge esistente proibisce contro la discriminazione di impatto sia intenzionale che disparata, che si riferisce alla discriminazione che si verifica a seguito di una politica di apparente neutrale, anche se non è prevista.

“Se un datore di lavoro crea uno strumento di intelligenza artificiale e non ha intenzione di discriminare, ma si scopre che in modo schiacciante i candidati che vengono screentati fuori dalla piscina hanno più di 40 anni, sarebbe qualcosa che ha un impatto disparato sui lavoratori più anziani”, ha detto Kim.

Sebbene la teoria dell’impatto disparato sia ben consolidata dalla legge, ha affermato Kim, il presidente Donald Trump ha chiarito la sua ostilità per questa forma di discriminazione cercando di eliminarla attraverso un Ordine esecutivo ad aprile.

“Ciò che significa è che agenzie come l’EEOC non perseguiranno o cercheranno di perseguire casi che comporterebbero un impatto disparato o che cerchi di capire come queste tecnologie potrebbero avere un impatto discreto”, ha affermato Kim. “Stanno davvero tirando indietro da quello sforzo per capire e per cercare di educare i datori di lavoro su questi rischi”.

La Casa Bianca non ha risposto immediatamente Fortunaè richiesta di commento.

Con poche indicazioni sugli sforzi a livello federale per affrontare la discriminazione sull’occupazione dell’IA, i politici a livello locale hanno tentato di affrontare il potenziale di pregiudizio della tecnologia, tra cui un New York City ordinanza vietare i datori di lavoro e le agenzie di utilizzare “strumenti decisionali automatizzati” a meno che lo strumento non abbia approvato un audit di pregiudizio entro un anno dal suo utilizzo.

Melanie Ronen, avvocato di lavoro e partner di Stradley Ronon Stevens & Young, LLP, Fortuna Altre leggi statali e locali si sono concentrate sulla crescente trasparenza su quando l’IA viene utilizzata nel processo di assunzione, “inclusa l’opportunità (per i potenziali dipendenti) di rinunciare all’uso dell’IA in determinate circostanze”.

Le aziende dietro le valutazioni di assunzione e sul posto di lavoro, come PDRI e Bold, hanno affermato di aver preso le proiezioni per mitigare la distorsione nella tecnologia, con il CEO di PDRI Pulakos che sostiene i valutatori umani per valutare gli strumenti di intelligenza artificiale prima della loro implementazione.

Il direttore della gestione dei prodotti tecnici audaci Schwartz ha sostenuto che mentre Guardrails, gli audit e la trasparenza dovrebbero essere fondamentali per garantire che l’IA sia in grado di condurre pratiche di assunzione equa, la tecnologia aveva anche il potenziale per diversificare la forza lavoro di un’azienda se applicata in modo appropriato. Ha citato ricerche che indicano le donne tendono ad applicare a un minor numero di posti di lavoro degli uomini, farlo solo quando incontrano tutte le qualifiche. Se l’intelligenza artificiale dalla parte del candidato del lavoro può semplificare il processo di candidatura, potrebbe rimuovere gli ostacoli per coloro che hanno meno probabilità di applicarsi a determinate posizioni.

“Rimuovendo quella barriera all’ingresso con questi strumenti di applicazione automatica o strumenti di applicazione di esperti, siamo in grado di livellare un po ‘il campo di gioco”, ha detto Schwartz.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top