A.I. Expert Virginia Dignum: il problema del carrello indica perché abbiamo bisogno di trasparenza

$config[ads_kvadrat] not found

POST HOC E CAUSA EFFETTO - COME (non) DISCUTERE 5

POST HOC E CAUSA EFFETTO - COME (non) DISCUTERE 5
Anonim

L'intelligenza artificiale ha bisogno di trasparenza, così gli umani possono tenerla in conto, ha affermato un ricercatore. Virginia Dignum, professore associato presso la Delft University of Technology, ha detto al pubblico della New York University che se non capiamo perché le macchine agiscono come loro, non saremo in grado di giudicare le loro decisioni.

Dignum ha citato una storia di David Berreby, uno scrittore e ricercatore scientifico, che è stato pubblicato nel Psicologia oggi: "Le prove suggeriscono che quando le persone lavorano con le macchine, sentono meno senso di agenzia rispetto a quando lavorano da sole o con altre persone".

Il "problema del carrello", ha spiegato Dignum, è un'area in cui le persone possono porre la cieca fiducia in una macchina per scegliere il risultato giusto. La domanda è se passare la leva su un ipotetico treno in corsa in modo che uccida una persona anziché cinque. Le persone si aspettano che le macchine risolvano il problema nel modo più razionale possibile. Tuttavia, potrebbe non essere sempre così, e la trasparenza aiuterebbe a spiegare come la macchina ha preso la sua decisione.

"Non è solo una catena di eventi di rete neurale molto profonda che nessuno può capire, ma per rendere tali spiegazioni in un modo che le persone possano capire", ha detto.

A.I. che rende chiaro il suo funzionamento è un'area che DARPA sta esplorando. Ad agosto, l'agenzia ha annunciato che stava cercando gruppi interessati a spiegazioni A.I. progetti, noti come XAI. Questi sistemi aiuteranno i ricercatori a capire perché un A.I. ha preso la decisione che ha fatto, dando più possibilità di decidere cosa fare con le informazioni risultanti piuttosto che fidarsi ciecamente della macchina.

Con l'apprendimento automatico, Dignum ha notato che la trasparenza è più cruciale che mai. "Non possiamo aspettarci che i sistemi, e in particolare le macchine di apprendimento automatico, imparino e conoscano tutto subito", ha affermato."Non ci aspettiamo che i nostri conducenti, durante la guida, siano pienamente consapevoli delle leggi sul traffico. In molti paesi, usano quelle "L" per mostrare: "Sto imparando, scusami per gli errori che potrei fare". "Guardare l'intelligenza artificiale, capire come vengono determinate certe decisioni e agire in base a ciò sarà cruciale per fermando le macchine che stanno ancora imparando dal prendere decisioni sbagliate.

$config[ads_kvadrat] not found