Apple iPhone X non può dire a parte facce cinesi, rimborso dato

$config[ads_kvadrat] not found

100€ vs 1000€ - Ho comprato un IPHONE X FINTO su Wish ? È UNA TRUFFA??

100€ vs 1000€ - Ho comprato un IPHONE X FINTO su Wish ? È UNA TRUFFA??
Anonim

La scorsa settimana, a Nanjing, una grande città nell'est della Cina, una donna con il nome di Yan è stata offerta due volte il rimborso da parte di Apple per il suo iPhoneX difettoso, sbloccato dal suo collega utilizzando la tecnologia di riconoscimento facciale. Entrambe le donne sono etnicamente cinesi.

Yan ha detto alle notizie locali che la prima volta che è successo, ha chiamato la hotline per l'iPhone, ma non le hanno creduto. Fu solo quando lei e il suo collega andarono in un negozio Apple locale e mostrarono allo staff del negozio che le offrivano un rimborso e lei acquistò un nuovo telefono, pensando che forse era colpa di una telecamera difettosa.

Ma il secondo telefono aveva lo stesso problema, suggerendo che non si trattava di una fotocamera difettosa, come suggerivano gli addetti del negozio, ma un problema con il software stesso.

Questo non sarebbe il primo caso in cui il software di riconoscimento facciale, e l'intelligenza artificiale dietro di esso, ha avuto problemi nel riconoscere volti non bianchi.

Nel 2015, Google Foto ha taggato accidentalmente una foto di due afro-americani come gorilla, mentre nel 2009, computer HP http://www.youtube.com/watch?v=t4DT3tQqgRM) ha avuto problemi nel riconoscere e rintracciare le facce nere - ma nessun problema con le facce bianche. Nello stesso anno, il software della fotocamera Nikon è stato catturato mentre sbatteva le palpebre di un volto asiatico sbattendo le palpebre.

Google Foto, hai tutte le palle. Il mio amico non è un gorilla. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine), 29 giugno 2015

"Questo è fondamentalmente un problema di dati", ha scritto Kate Crawford, ricercatrice principale presso Microsoft e co-presidente del Symposium on Society di Obama e A.I. "Gli algoritmi imparano nutrendosi di determinate immagini, spesso scelte dagli ingegneri, e il sistema costruisce un modello del mondo basato su quelle immagini. Se un sistema viene addestrato su foto di persone che sono in modo schiacciante bianco, avrà più difficoltà a riconoscere volti non bianchi ".

Jacky Alcine, il programmatore con sede a Brooklyn la cui foto è stata erroneamente etichettata da Google, ha accettato. Della sua esperienza ha detto, "Questo avrebbe potuto essere evitato con una classificazione accurata e più completa dei neri."

Ma il razzismo che è codificato nell'intelligenza artificiale, anche se non è intenzionale, ha implicazioni che vanno al di là del semplice riconoscimento facciale.

Un'inchiesta di ProPublica del 2016 ha scoperto che i criminali neri avevano il doppio delle probabilità di essere erroneamente segnalato come suscettibile di riprendere i crimini rispetto ai criminali bianchi, mentre la crescente tendenza di "polizia predittiva" utilizza algoritmi per prevedere il crimine e dirigere le risorse della polizia di conseguenza.

Tuttavia, le comunità minoritarie sono state storicamente eccessivamente controllate, portando alla possibilità che "questo software rischia di perpetuare un ciclo già vizioso", dice Crawford.

Tornato a Nanjing, in Cina, Yan ha ricevuto un secondo rimborso per il suo secondo iPhoneX. Dai notiziari locali, non è chiaro se abbia quindi acquistato un terzo.

Ciò che era in gioco, questa volta, potrebbe essere stato solo un singolo consumatore. Ma il caso di Yan è stato un esempio del continuo bisogno per l'industria tecnologica di progettare con diversità e inclusività in mente.

$config[ads_kvadrat] not found