Pare che Facebook non rispetti le leggi USA per le pari opportunità di genere.
Almeno, così dice il MIT Technology Review:
Facebook's ad algorithms are still excluding women from seeing jobs.
A quanto pare alcuni ricercatori hanno comprato spazio pubblicitario in Facebook e hanno pubblicato annunci di ricerca personale per due diversi lavori che statisticamente hanno una distribuzione asimmetrica rispetto al genere. E incredibilmente l'Algoritmo* ha scelto di far vedere l'annuncio prevalentemente a persone del genere che maggiormente era rappresentato per quel tipo di lavoro. Cosa vietatissima perché non si può selezionare personale in base al genere (e, ci auguriamo, nemmeno in base a qualsiasi altra caratteristica fisica).
Proviamo a estremizzare giusto per capire meglio il ragionamento, l'Algoritmo e il problema: supponiamo di voler mettere un annuncio di ricerca personale, ad esempio per trasportatori di pianoforti a coda (quelli che li portano su e giù dalle scale con delle cinghie). Anzi, fingiamo di dover fermare per strada possibili candidati per dargli un ipotetico volantino di selezione candidati. Supponendo di non voler sprecare volantini, a chi lo daremmo? Attenzione, perché qui è nascosto un dettaglio importante: se attacco una pubblicità al muro, la legge chi la legge. Se metto un volantino in mano ai passanti, e mi do come obiettivo di non sprecare volantini, devo scegliere a chi darlo. L'annuncio su Facebook è l'equivalente virtuale del volantino, e l'Algoritmo ci sostituisce nel selezionare i candidati più plausibili. Ma posso scegliere i più plausibili e contemporaneamente ignorare il genere?
Proviamo a omettere il fattore genere, e comunque a voler evitare lo spreco di volantini: potremmo ad esempio dare i volantini a persone (di ogni genere) dall'aspetto forzuto, e di altezza sopra la media? Forse sì, ma di che genere sarebbero i candidati? Sicuramente non 50/50 maschi/femmine…
Il fatto è che noi stiamo chiedendo all'Algoritmo di fare cose che sono in contrasto tra loro: indovinare chi potrebbe essere interessato, ma produrre un risultato dove maschi e femmine hanno rappresentanza equivalente. Non ha senso se oggi quello stesso lavoro lo fanno prevalentemente rappresentanti di uno dei generi.
Se l'algoritmo basa le proprie decisioni sulla precedente esperienza, e se questa esperienza ci dice che un certo tipo di persone saranno più interessate di altre, non ci pare che ci sia via di scampo: è inevitabile che, pur trascurando il genere, si finisca per escludere le persone che tipicamente quel lavoro non lo fanno. Non saranno escluse in quanto di uno specifico sesso, ma banalmente perché hanno caratteristiche d'insieme che le rendono candidati meno plausibili.
Ma è anche perfettamente comprensibile il nostro desiderio di avere un comportamento differente. In realtà perché siamo schizofrenici: da una parte parliamo in modo politically correct: parità di tutto per tutti, nessuna discriminazione. Dall'altra parte la statistica (o il machine learning se preferissimo chiamarla così) mette a nudo il fatto che ci comportiamo in altro modo, e quindi istruisce l'Algoritmo a fare lo stesso.
La soluzione: banale. Non serve cambiare l'Algoritmo. Basta
TOGLIERLO.
----------------------------------------------------------------------------------------
(*) L'Algoritmo, con la maiuscola. Un animale mitico che decide su varie cose sulla base di criteri opachi, non condivisi e probabilmente non compresi nemmeno dal suo creatore. Decide ad esempio quali pubblicità vedremo, quali film ci piacciono, qual è la nostra capacità di ripagare un prestito, chi ci piace e cosa dirci per farci votare in un modo piuttosto che in un altro.