A.I. Istituto di ricerca mostra come creare algoritmi responsabili

Lezioni dalla pandemia

Lezioni dalla pandemia
Anonim

L'istituto di ricerca AI ora ha pubblicato nuove raccomandazioni per l'implementazione responsabile degli algoritmi nella sfera pubblica di mercoledì. Il loro consiglio è rivolto a una task force formata dal Consiglio di New York a gennaio che sta studiando l'uso del governo dell'intelligenza artificiale.

Il rapporto di AI ora, Valutazioni di impatto algoritmico: verso un'automazione responsabile nelle agenzie pubbliche, sottolinea la necessità di trasparenza quando si tratta di implementare algoritmi. Gli algoritmi hanno un enorme impatto sulla nostra vita quotidiana, ma il loro impatto a volte passa inosservato. Poiché sono integrati nell'infrastruttura dei social media e delle piattaforme video, ad esempio, è facile dimenticare che i programmi spesso determinano quali contenuti vengono inviati agli utenti di Internet. È solo quando qualcosa va storto, come un video di teoria della cospirazione che raggiunge la cima dell'elenco delle tendenze di YouTube, che esaminiamo le procedure decisionali automatizzate che modellano le esperienze online.

E gli algoritmi non sono limitati alle piattaforme internet. Le istituzioni governative sono diventate sempre più dipendenti da algoritmi, in ambiti che vanno dall'istruzione alla giustizia criminale. In un mondo ideale, gli algoritmi eliminerebbero il pregiudizio umano dalle decisioni difficili, come determinare se un detenuto debba o meno essere autorizzato a concedere la libertà condizionale. In pratica, tuttavia, gli algoritmi sono efficaci quanto quelli che li producono.

Ad esempio, un'indagine di ProPublica hanno dimostrato che gli algoritmi di valutazione del rischio utilizzati nelle aule di tribunale erano di parte razziale. A peggiorare le cose, molti degli algoritmi utilizzati nel settore pubblico sono di proprietà privata, e alcune aziende si rifiutano di condividere il codice sottostante il loro software. Ciò rende impossibile capire perché questi cosiddetti algoritmi "black box" restituiscano determinati risultati.

Una potenziale soluzione offerta da AI ora? Valutazioni di impatto algoritmico. Queste valutazioni stabiliscono una norma di completa trasparenza, il che significa che le agenzie governative che utilizzano algoritmi dovrebbero pubblicizzare quando e come le utilizzano. "Questo requisito di per sé farebbe molto per gettare luce su quali tecnologie vengono distribuite per servire il pubblico e dove la ricerca di responsabilità dovrebbe essere focalizzata", dice il rapporto.

Una politica di apertura che circonda gli algoritmi aprirebbe anche la porta per i cittadini a scrutare e protestare contro il loro uso. Vorresti un algoritmo che ti fornisca un punteggio di valutazione del rischio basato su fattori al di fuori del tuo controllo, specialmente quando quel punteggio potrebbe aiutare a determinare se vai in prigione? Forse sì forse no. In entrambi i casi, è importante sapere esattamente quali variabili vengono analizzate dall'algoritmo.

Inoltre, AI Now raccomanda di stabilire uno standard legale per le persone che fanno pressioni contro algoritmi sleali.

Ad esempio, se un'agenzia non rivela i sistemi che rientrano ragionevolmente nel campo di applicazione di coloro che prendono decisioni automatiche, o se consente ai venditori di fare affermazioni fuorilegge sul commercio e quindi blocca l'accesso significativo al sistema, il pubblico dovrebbe avere la possibilità di sollevare dubbi un organo di controllo dell'agenzia, o direttamente in un tribunale, se l'agenzia ha rifiutato di correggere questi problemi dopo il periodo di commento pubblico.

Le raccomandazioni si riducono essenzialmente ad un unico mandato: se stai usando algoritmi, non essere loschi per questo.

Leggi il rapporto completo qui.