Devs meet Ethics: le faremo sapere

Quando inviamo un curriculum o rispondiamo a un annuncio di lavoro, i nostri dati finiscono sempre più spesso in un sistema automatico di gestione, chiamato ATS: Applicant Tracking System. Una volta ricevuta la candidatura, e inviata l’email di “le faremo sapere”, il sistema di gestione delle risorse umane inizia a catalogare i dati che gli specialisti delle risorse umane useranno per selezionare i candidati più in linea con le esigenze aziendali.

Ne ho parlato sul canale Twitch di Codemotion nella rubrica Devs Meet Ethics con Nicola Gurrado di One More Tech Away. Nicola ha evidenziato che la AI è uno strumento valido per un selezionatore che si ritrova con 5000 curriculum sulla scrivania, ma a patto che sia sempre l’essere umano a guidare la scelta e a fare le proprie valutazioni.

Mauro e Nicola sulla Etica di una Intelligenza Artificiale: le faremo sapere
Mauro e Nicola sulla Etica di una Intelligenza Artificiale

Fotografia di un’epoca

Una delle sfide dell’Intelligenza Artificiale applicata al campo della HR è quello di non fossilizzare nel tempo e nei modi un particolare momento storico e culturale. Un esempio?
Immaginate di chiedere a un sistema di generazione delle immagini una fotografia di studentesse che escono da scuola. Se questo sistema è stato addestrato in USA vedremo delle ragazze vestite in modo casual. Un sistema addestrato in Giappone probabilmente ci mostrerà delle ragazze vestite tutte con la stessa divisa. Un sistema addestrato in Afghanistan mostrerà ragazze con il velo o il burqa.

Nessuno di questi è errato, ma è una fotografia nel tempo e nello spazio. Comunque vada tra 20 anni queste foto saranno vintage perché taglio di capelli, divise, vestiti, zaini e colori saranno fuori moda o fuori luogo.

Scolare giapponesi durante l’Hanami – Dall-E 2
Scolare giapponesi durante l’Hanami – Dall-E 2

Discriminazioni perpetue

Se applichiamo la stessa cosa nel mondo HR, una AI che ha sempre assunto uomini selezionerà mai una donna? Una AI che studia i curriculum attuali di un’azienda locale selezionerà mai qualcuno di una cultura diversa o che parla una lingua diversa?
Un sistema che analizza il video dei candidati riconoscerà una persona neuro atipica? O una persona che per culturale non guarda l’interlocutore? Il candidato avrà la possibilità di negare l’uso di strumenti AI senza essere discriminato?

Senza demonizzare la tecnologia, queste innovazioni sono utilissime per ridurre i tempi di selezione e avere valutazioni meno impattate dai nostri bias umani. Ricordiamoci di essere aiutati da una macchina e non di delegarle le scelte.

Colloqui con una AI – Dall-E 2
Colloqui con una AI – Dall-E 2

Ecco, probabilmente una AI potrebbe inviare una email con l’esito negativo della nostra candidatura a chiudere il cerchio della email di intro: le faremo sapere.

Torna in alto