Trolling sui social media: come A.I. Sta migliorando l'anticipazione delle casse

$config[ads_kvadrat] not found

Rocco Hunt - Nu juorno buono (Videoclip)

Rocco Hunt - Nu juorno buono (Videoclip)
Anonim

Internet è un hellscape gestito da troll e dominato da argomenti futili su Facebook o peggio. E mentre i giganti dei social media attraverso il web hanno infine, a malincuore, iniziato a lanciare sforzi più solidi per cercare di dissuadere il dialogo dispregiativo, queste soluzioni tendono ad essere reattive, in altre parole arrivando dopo che il danno è già stato fatto.

Non dovrebbe sorprendere, quindi, che i ricercatori di intelligenza artificiale siano desiderosi di sviluppare sistemi in grado di farlo prevedere un argomento online prima che accada. Ma come una squadra di ricercatori della Cornell University ha recentemente spiegato a Inverso, questa innovazione urgentemente necessaria non è poi così lontana dal cercare di raccontare il futuro.

"In passato, è stato svolto un lavoro per rilevare se un determinato commento è tossico", afferma il dottorato in informatica. Jonathan Chang. "Il nostro obiettivo è leggermente diverso, vogliamo sapere se è possibile prevedere se una conversazione attualmente civile sfuggirà di mano in futuro. Per esplorare questa domanda, guardiamo le conversazioni tra gli editor di Wikipedia, alcuni dei quali rimangono civili e altri dei quali sfuggono di mano ".

Chang ei suoi colleghi hanno analizzato centinaia di messaggi inviati tra i curatori di Wikipedia a volte facilmente irritati. Hanno quindi usato 1.270 conversazioni che hanno preso una svolta offensiva per addestrare un modello di apprendimento automatico nel tentativo di automatizzare questo tipo di moderazione. I risultati sono stati pubblicati in un documento presentato alla riunione annuale dell'Associazione per la linguistica computazionale il 15 luglio.

Allora, come fa il bot "calmiamoci tutti"? Fortunatamente, non troppo malandato. Finì per essere accurato al 65%, leggermente inferiore al 72% di successo degli umani. I ricercatori hanno trovato questa statistica creando un quiz online in cui le persone potevano testare le loro capacità di moderazione dei commenti. Risulta, è abbastanza dannatamente difficile capire se gli utenti dei social media si scateneranno o resteranno civili.

"L'idea è di dimostrare che il compito è difficile ma non impossibile - se gli umani ottenessero solo il 50% di accuratezza, per esempio, questo non sarebbe meglio delle ipotesi casuali e non ci sarebbe motivo di pensare che potremmo addestrare una macchina a fare meglio, "dice Chang. "Confrontando il nostro modello con le risposte umane ci ha fornito alcune informazioni su come il nostro approccio computazionale sia simile o dissimile all'intuizione umana".

Chang non crede che questo libererà Internet dal discorso spazzatura, ma lo vede come un modo per aiutare i moderatori dei social media umani. Invece di dover prestare attenzione ai milioni di commenti che possono essere pubblicati un giorno, il loro algoritmo può identificare le centinaia di quelle che sono a rischio di trasformarsi in un argomento.

Mentre si potrebbe pensare che il superamento di tutte queste discussioni potenzialmente imprevedibili possa dare a Chang un filo di tristezza, lo scienziato dice che l'esperienza gli ha effettivamente dato speranza per l'umanità.

"Di questi tempi, c'è molto pessimismo riguardo le conversazioni online, ma qui quello che stiamo vedendo è che anche nei casi in cui una conversazione inizia in modo ostile, c'è ancora una possibilità per i partecipanti di avere ripensamenti, cambiare il loro tono, e mettere la conversazione in pista per un risultato più luminoso ", dice. "Il futuro non è scolpito nella pietra".

Forse, dopo tutto, c'è speranza per Internet.

$config[ads_kvadrat] not found