Un algoritmo è stato testato a San Francisco per impostare la prealimentazione preliminare

$config[ads_kvadrat] not found

Come affronare l'Esame Oam

Come affronare l'Esame Oam
Anonim

Il sistema di giustizia penale è nel bel mezzo di un cambiamento algoritmico. Circa 30 giurisdizioni - tra cui gli Stati dell'Arizona, del Kentucky e del New Jersey, nonché città come San Francisco e Chicago - hanno testato un algoritmo che fissa il costo della cauzione in base ai dati dei casellari giudiziari a livello nazionale. Non tutti i giudici sono necessariamente pronti a prendere a cuore le raccomandazioni digitali.

L'algoritmo è stato creato dalla Laura e John Arnold Foundation di Houston e si chiama Public Safety Assessment, o PSA. L'obiettivo dell'algoritmo è di prendere i pregiudizi dall'impostare la cauzione utilizzando i dati di 1,5 milioni di casi in esame. In passato, tuttavia, gli algoritmi hanno portato gli stessi pregiudizi delle persone che li hanno creati.

Nove fattori entrano nell'algoritmo, secondo il sito web della fondazione:

  • Se l'attuale reato è violento
  • Se la persona ha una carica in sospeso al momento dell'arresto
  • Se la persona ha una precedente condanna per negligenza
  • Se la persona ha una precedente condanna per crimine
  • Se la persona ha una precedente condanna per un crimine violento
  • L'età della persona al momento dell'arresto
  • Se la persona non è riuscita a comparire in udienza preliminare negli ultimi due anni
  • Se la persona non è riuscita a comparire in udienza preliminare più di due anni fa
  • Se la persona è stata precedentemente condannata alla detenzione.

L'algoritmo non tiene conto di razza, sesso, reddito, istruzione, impiego o quartiere. Questo, secondo le fondamenta, rende PSA neutrale.

Tuttavia, i giudici di San Francisco non hanno seguito coerentemente le raccomandazioni, il San Francisco Chronicle rapporti.

San Francisco si è trasferito a utilizzare l'algoritmo dopo che la città è stata denunciata da un gruppo nazionale per i diritti civili che ha chiesto la cauzione esorbitante ferire i poveri più dei ricchi. I ricchi che hanno commesso reati minori stavano comprando la loro uscita dal carcere, mentre le persone povere che non potevano permettersi eccessive quantità di cauzione venivano lasciate in una cella di detenzione fino a quando un processo poteva essere programmato.

Il PSA avrebbe dovuto livellare il campo di gioco guardando i dati, piuttosto che il crimine immediato. L'algoritmo utilizza i dati storici per giudicare la probabilità che una persona commetta un altro crimine o eviti il ​​processo se messo su cauzione, Rapporto di minoranza stile. Se la probabilità è alta, la cauzione è impostata su un valore superiore e viceversa.

Un algoritmo simile creato da Northpointe è stato utilizzato per guidare le date di rilascio dei prigionieri. ProPublica I risultati di un'indagine pubblicati a maggio hanno rivelato che i punteggi di "valutazione del rischio" forniti dall'algoritmo di Northpointe prevedevano in modo sproporzionato che le persone di colore avevano più probabilità di commettere un altro crimine rispetto ai bianchi dopo che erano usciti. Solo il 20 percento delle previsioni di Northpointe erano accurate.

Le tecnologie di mappatura avanzate e i big data, d'altra parte, stanno anche aiutando le forze dell'ordine a identificare e gestire gli hotspot criminali.

L'algoritmo della fondazione mira ad evitare un pregiudizio simile rimuovendo eventuali indicatori demografici. Comunque sia, o non funziona veramente, non sarà visto fino a quando i giudici non inizieranno effettivamente a fare affidamento su algoritmi su precedenti e intuizioni.

$config[ads_kvadrat] not found