Abbiamo testato il riconoscimento vocale su Facebook di Facebook con immagini grafiche

$config[ads_kvadrat] not found

iOS 14 & iPadOS 14: la RECENSIONE COMPLETA!

iOS 14 & iPadOS 14: la RECENSIONE COMPLETA!

Sommario:

Anonim

Oggi, Facebook ha lanciato una funzionalità chiamata alt text automatico che rende la qualità dell'immagine dei social media più accessibile alle persone non vedenti o ipovedenti.

Utilizzando la funzione VoiceOver di iOS, la tecnologia di riconoscimento degli oggetti di Facebook elenca gli elementi che un'immagine in questione può contenere. In particolare, questi elementi includono le persone (quanti sono raffigurati e se stanno sorridendo), determinati oggetti, scene di interni / esterni, azioni, luoghi iconici e se un'immagine presenta contenuti discutibili.

Uno studio del 2014 ha rilevato che le persone con problemi di vista non condividono meno foto su Facebook, ma, in media, "gradiscono" le immagini delle persone più di quelle che non sono ipovedenti. Commentano anche le foto altrettanto frequentemente. Tuttavia, la comprensione della foto si basa sul parsing di indizi di contesto su metadati e didascalie di foto - cose che tutti sappiamo non sono sempre i descrittori più semplici.

Con il testo alternativo automatico, tuttavia, gli utenti sono in grado di ottenere nuove informazioni su un'immagine attraverso una descrizione meccanizzata dell'immagine.

Quindi cosa succede quando le immagini possono essere considerate contenuti discutibili secondo le linee guida di Facebook?

Ho caricato alcune immagini che Facebook potrebbe aver giudicato come "discutibili" in un album (privato) per scoprirlo.

L'allattamento al seno

Storie su Facebook che rimuovono le immagini delle donne che allattano al seno hanno preso il sopravvento su Internet all'inizio del 2015. Delle donne colpite, i fotografi appena nati sembravano avere molti dei problemi.

Jade Beall è uno di quei fotografi.Immagini come quella sopra sono state ripetutamente tolte dalla sua pagina Facebook professionale. Oggi, Facebook permette alle immagini di allattare al seno sul sito, che Beall ha celebrato ripubblicando l'immagine sopra come sua foto di intestazione con la didascalia:

"YAY per i social media che si evolvono e supportano la desessualizzazione delle donne che allattano! Sono ancora impressionato di poter pubblicare questa immagine senza la paura di essere bannato dall'FB!"

Anche l'alt text automatico di Facebook è bello con l'allattamento, lasciando la descrizione a un semplice:

"L'immagine può contenere: Sei persone."

Nel caso di un'immagine di base di una madre che allatta al seno, offre semplicemente:

"L'immagine può contenere: Due persone."

Uso di droga

Facebook vieta esplicitamente foto e video che contengono droghe. Prendere un colpo di bong grasso è un chiaro esempio di "consumo di droga".

Il testo alternativo automatico si occupa di questo modo:

"L'immagine può contenere: Una persona, al chiuso."

Nudità

Insieme al consumo di droghe, Facebook bandisce anche la nudità. La linea qui diventa un po 'sfocata, come consente Facebook alcuni la nudità, ma solo la nudità che i censori della compagnia ritengono abbiano un merito artistico. In questi casi i quadri hanno generalmente un margine maggiore, mentre la fotografia si fa più dura.

Nel caso del dipinto sopra, l'alt text automatico non ha avuto problemi con l'immagine:

"L'immagine può contenere: Una persona."

In risposta alle linee guida sulla censura di Facebook, gli artisti si sono radunati sotto #FBNudityDay il 14 gennaio per pubblicare immagini di nudo. Facebook ha la tendenza a censurare. È stata inclusa un'immagine di body painting completa di nudità e, quando è stata eseguita la verifica automatica dell'immagine alternativa, questa è stata la risposta:

"L'immagine può contenere: Una persona."

Violenza grafica

Facebook condanna foto e video che descrivono e glorificano la violenza grafica. Eticamente, la violenza grafica è oscura. L'immagine che abbiamo usato per testare come il testo alternativo automatico avrebbe risposto alla violenza grafica è stata una delle vittime di un colpo di pistola venezuelano pubblicato nel 2014 e di proprietà della San Francisco Chronicle.

La foto mostra un uomo su una lettiga in pena, sangue dappertutto. Accanto a lui c'è una donna con i guanti, ma l'immagine la taglia alle sue spalle.

È qui che è arrivata la più sbalorditiva risposta del testo. La voce fuori campo ha semplicemente dichiarato:

"L'immagine può contenere: Scarpe."

Nascita dal vivo

L'incursione più recente di Facebook su ciò che dovrebbe e non dovrebbe essere mostrato sui feed dei social media delle persone è stata una foto di un parto in diretta. Rivista di New York per prima cosa ha attirato l'attenzione sull'immagine, che mostra una donna di nome Francie che tiene in braccio il suo bambino appena nato, il cordone ombelicale ancora attaccato.

È stato pubblicato in un gruppo privato di Facebook, ma è stato rimosso perché qualcuno in quel gruppo privato lo ha segnalato per aver violato le regole di nudità di Facebook. Francie, tuttavia, ha dichiarato che considerava la foto un esempio di empowerment femminile.

Il testo alternativo automatico aveva questo da dire:

"L'immagine può contenere: Una o più persone."

Come mostrano questi esempi, il testo alternativo automatico di Facebook non è così rapido nel giudicare ciò che è e non è appropriato per il sito come i censori di Facebook. Ma c'è ancora tempo per recuperare. Facebook dice che la sua nuova tecnologia migliorerà col passare del tempo e il programma impara di più.

A prescindere da quanto ben funzionante al momento del lancio, la nuova tecnologia offrirà alle persone ipovedenti l'opportunità di interagire con le immagini su Facebook in modi che non potevano fare prima. Non vediamo l'ora di migliorare automaticamente il testo alternativo, ma forse non tanto da iniziare a scattare foto "inappropriate", giusto?

$config[ads_kvadrat] not found