Il nostro A.I. La politica è bloccata nel passato

POLITICO AI Summit - Interview with Margrethe Vestager, European Commission Vice President

POLITICO AI Summit - Interview with Margrethe Vestager, European Commission Vice President
Anonim

Ed Felten, il vice capo della tecnologia U.S. per l'Ufficio della scienza e della tecnologia della Casa Bianca, afferma che gli umani hanno due grandi responsabilità quando si tratta dello sviluppo e del progresso dell'intelligenza artificiale.

Il primo, dice, è "fare i benefici di A.I. una realtà. "Il secondo:" per affrontare i rischi di A.I."

Felten stava parlando con una stanza piena di persone allo Skirball Center della New York University per le arti dello spettacolo di A.I. Ora - una serie di conferenze estive co-sponsorizzata dalla Casa Bianca che ha cercato di esaminare e discutere questioni chiave relative al futuro di A.I. tecnologia.

A.I. è ad un bivio, A.I. Ora i co-presidenti Kate Crawford (ricercatore presso Microsoft Research) e Meredith Whittaker (fondatore e lead di Google Open Research), hanno sottolineato. I settori pubblico e privato devono collaborare per creare una sorta di A.I. politica. Ma il problema è che mentre le aziende tecnologiche stanno facendo passi da gigante verso l'avanzamento del codice e dell'architettura reali che stanno facendo A.I. una forza onnipotente, le nostre attuali strutture politiche sono obsolete o, peggio, inesistenti.

Per troppo tempo, A.I. è stato messo da parte come un concetto futuristico, inapplicabile all'età moderna. Ma A.I. si è silenziosamente manifestato nella politica urbana, spulciando attraverso un sacco di dati e offrendo servizi alle persone in un modo in cui il semplice potere umano è incapace di raggiungere. Felten ha citato esempi nel modo in cui gli algoritmi possono utilizzare i dati per collegare le persone a alloggi a prezzi accessibili o per imporre la trasparenza in modo che il pubblico abbia accesso a informazioni preziose.

Questo non vuol dire che A.I. è perfetto; è molto non. Durante il panel principale per la serata, Latanya Sweeney, un A.I. ricercatore presso l'Università di Harvard, ha discusso una storia che ha chiamato "The Day My Computer Was Racist".

Un reporter che ha intervistato Sweeney ha cercato il suo nome attraverso Google e ha scoperto che il suo nome stava spuntando sotto la pubblicità di siti che offrivano la raccolta e la condivisione di dati sugli arresti criminali. Sweeney non era mai stata arrestata, e il suo nome non faceva nemmeno parte del database del sito web - eppure il suo nome era appariscente nella pubblicità. Come ogni bravo scienziato, Sweeney ha preso la sua personale esperienza e ha condotto uno studio e ha scoperto che questi annunci erano significativamente più propensi ad elencare i nomi degli individui neri rispetto agli individui bianchi. La ragione? La consegna di questi annunci da parte di Google è il risultato di un algoritmo che dà più peso a ciò su cui gli utenti hanno fatto clic quando sono comparsi annunci. Quando un nome nero è stato googled, più persone hanno fatto clic su questi annunci. Il sistema ha appreso il modello e ha iniziato a distribuire tali annunci in maggiore frequenza.

È una lezione preziosa per fondare la promessa di A.I.: gli esseri umani in ultima analisi alimentano la tecnologia e le azioni razziste da parte degli umani possono influenzare il design e gli algoritmi e, sì, anche A.I.

Google potrebbe facilmente individuare tali pregiudizi nei loro servizi pubblicitari e lavorare per correggerli. "Hanno scelto di non farlo", sostenne Sweeney.

Un quadro politico più moderno potrebbe costringere Google a risolvere questo problema? Forse. Nicole Wong, che era il predecessore di Felten dal 2013 al 2014, ha sottolineato che molte persone - tra cui A.I. i ricercatori stessi - nutrivano una vera preoccupazione per una "crescente asimmetria al potere" tra le persone che usano i big data e le persone che sono state colpite in ultima analisi, che andavano dai soggetti dei dati, o quelli influenzati dalle decisioni informate da tali dati.

Queste preoccupazioni non sono solo limitate al settore privato. Roy Austin, vice assistente del presidente del Consiglio per la politica interna della Casa Bianca, ha parlato di come l'applicazione della legge potrebbe essere notevolmente migliorata da A.I. - o creare un massiccio superamento del potere e abusi quando si tratta della privacy dei civili. "La domanda diventa: 'Cosa facciamo con questi dati?'", Ha detto. Una cosa è avere dati, ma chi può accedervi? Per quanto? Chi avrà accesso ad esso? Di nuovo, non abbiamo risposte politiche o soluzioni a queste domande e incertezze - e questo è preoccupante mentre ci muoviamo verso un futuro sempre più controllato da A.I.

Un terzo pilastro di preoccupazione non aveva a che fare con usi nefandi di A.I., e più a che fare con il modo in cui A.I. e i sistemi autonomi stanno rimuovendo gli umani dai lavori. Henry Siu, un A.I. ricercatore presso l'Università della British Columbia, ha discusso di occupazioni "di routine" (dove i dipendenti conducono una serie molto specifica di compiti che quasi mai si discostano da una routine impostata) e di come queste perdite di posti di lavoro siano le più vulnerabili alle interruzioni della tecnologia. L'automazione ha creato un drastico ridimensionamento di questi lavori - e non stanno tornando indietro.

Sembra la stessa vecchia storia dell'industrializzazione, ma non è abbastanza. Mentre "questa rivoluzione potrebbe già essere qui … potrebbe essere meno esotica di quanto immaginassimo", ammonì David Edelman, assistente speciale del presidente per la politica economica e tecnologica. La perdita di posti di lavoro "non accadrà tutto in una volta." Sia lui che Siu hanno sottolineato che la soluzione è creare un clima educativo in cui le persone non smettono di andare a scuola e acquisiscono costantemente nuove abilità e specializzazioni che le consentono di adattarsi con tecnologia.

Potrebbe essere confortante per i responsabili delle politiche rendersi conto che gli Stati Uniti non sono i soli ad affrontare questi problemi. Ma se l'America intende continuare a fare da apripista per l'A.I., dovrà farlo avanti nell'arena politica.

Mustafa Suleyman, cofondatore di Google DeepMind, ha discusso del potenziale di A.I. per aiutare i sistemi sanitari e consentire ai medici sugli algoritmi delle macchine di diagnosticare determinate malattie e malattie - liberando il tempo per gli umani di elaborare metodi di trattamento. Per Suleyman, che è inglese, non sembrava una idea inverosimile ottenere un sistema come questo all'interno degli ospedali. Sweeney ha sottolineato, tuttavia, che "negli Stati Uniti, non si ha il controllo sui propri dati" - non ci sono misure normative per garantire che le informazioni non siano abusate. E questo è un enorme problema.

"Voglio tutto ciò che posso spremere da ogni successo della tecnologia", ha detto Sweeney. "Il problema non è il lato tecnologico; il problema è che siamo fuori passo con le politiche pubbliche ".