Con la tecnologia odierna insieme alla consapevolezza sociale, non va più bene mostrare alcun tipo di pregiudizio in un prodotto o servizio, indipendentemente dal fatto che sia intenzionale o meno. Questo è il motivo per cui le dita vengono puntate su Twitter dopo che il suo algoritmo di ritaglio delle immagini mostra un pregiudizio razziale.
Twitter ha pregiudizi razziali?
Twitter sta studiando il suo algoritmo di ritaglio delle immagini dopo che gli utenti hanno notato che le facce nere non venivano sempre mostrate nelle anteprime delle immagini sul sistema operativo mobile quando un'immagine mostra sia una faccia nera che una faccia bianca.
Twitter ha riferito di non aver trovato alcuna prova di pregiudizi razziali e di genere quando ha testato il suo algoritmo, ma si rende anche conto che ci sono più test da fare.
Il responsabile della tecnologia del social network, Parag Agrawal, ha affermato che il modello di ritaglio delle immagini è stato analizzato al momento della spedizione, ma apprezza che il pubblico lo stia aiutando a testarlo dal vivo. "Adoro questo test pubblico, aperto e rigoroso e desideroso di imparare da questo", ha detto.
Un manager universitario a Vancouver, Colin Madland, ha iniziato questa impresa notando che quando zooma con un collega nero, la testa dell'altro uomo sarebbe scomparsa. Sembrava che il software vedesse la testa più scura come parte dello sfondo, quindi l'ha rimossa.
Madland ha visto un problema più profondo quando ha twittato al riguardo. Ha postato su Twitter per chiedere se qualcuno sapeva cosa stava succedendo con la faccia del suo collega che scompariva. Tuttavia, una volta che ha pubblicato una foto che includeva sia la sua faccia che la faccia scomparsa del suo collega su Zoom, Twitter ha ritagliato l'immagine per mostrare solo Madland e non l'altro uomo.
Ha scoperto su Zoom che poteva far apparire la faccia dell'uomo nero se un globo bianco fosse stato posizionato dietro la sua testa, come se fosse sufficiente a separarlo dallo sfondo. Tuttavia, Twitter ha ritagliato anche questo. Ha ritagliato l'uomo con la testa mancante e ha anche ritagliato l'immagine con la testa vista davanti al globo.
Il chief design officer di Twitter, Dantley Davis, ritiene che il problema sarebbe stato risolto se i peli del viso e gli occhiali di Madland fossero stati rimossi.
“So che pensi che sia divertente schiacciarmi, ma sono irritato per questo come tutti gli altri. Tuttavia, sono in grado di risolverlo, e lo farò ", ha detto Davis. “È colpa nostra al 100 percento. Nessuno dovrebbe dire il contrario. "
Gli utenti di Twitter hanno condotto esperimenti per dimostrare la teoria. Hanno scoperto che l'algoritmo preferiva il leader della maggioranza al Senato degli Stati Uniti Mitch McConnell all'ex presidente degli Stati Uniti Barack Obama. Anche con una foto d'archivio, è stato mostrato un uomo bianco piuttosto che un uomo nero.
Twitter non solo
Questa non è una situazione isolata con Twitter. È successo anche a Microsoft, IBM e Amazon con i loro sistemi di riconoscimento facciale. Non sono stati in grado di identificare le persone di colore oltre ai bianchi.
Microsoft ha affermato di aver adottato misure per correggere il problema dopo aver realizzato che il sistema è stato addestrato con facce per lo più bianche. Al sistema non erano state mostrate abbastanza persone di colore per imparare a identificarle correttamente. Successivamente, Microsoft ha suggerito che il riconoscimento facciale dovrebbe essere regolato per evitare pregiudizi .
IBM ha detto che lancerà una nuova versione del suo servizio. Il sistema Rekognition di Amazon a volte identifica anche le donne nere come uomini neri, ma non ha lo stesso problema con le donne bianche.
Il problema, come ha sottolineato Madland sul suo account Twitter , è che non è sempre così innocente come una riunione Zoom. Le forze dell'ordine usano Rekognition. Le persone potrebbero essere identificate erroneamente da questo sistema e accusate di un crimine. E questo, di per sé, è un crimine.
Credito immagine: Twitter e dominio pubblico di Colin Midland