DARPA ha deciso che intende effettivamente comprendere A.I.

$config[ads_kvadrat] not found

DOE FY2021 Budget Request for Advanced Research Projects Agency (EventID=110705)

DOE FY2021 Budget Request for Advanced Research Projects Agency (EventID=110705)
Anonim

Il Pentagono vuole scoprire cosa fa spiccare l'intelligenza artificiale. L'Agenzia per la difesa avanzata dei progetti di ricerca (DARPA) ha annunciato giovedì di essere estremamente interessata alla spiegazione A.I. progetti, noti come XAI. La notizia è una brusca partenza per un'agenzia che aveva in precedenza privilegiato A.I. efficacia, invece di capire effettivamente come i sistemi arrivano alle decisioni.

DARPA sta cercando di supportare A.I. progetti che chiariranno all'utente finale perché è successo qualcosa. Ad esempio, DARPA vuole che gli analisti dell'intelligence capiscano perché le raccomandazioni siano state approvate dalla A.I. li manda sono stati scelti Se un analista umano sta esaminando A.I. dati scelti, dovrebbero capire perché il computer ha messo quei dati davanti a loro e non qualcos'altro. Un A.I. come quelli della Cyber ​​Grand Challenge finanziata dall'agenzia avrebbe bisogno di essere progettata in modo più trasparente, ma l'annuncio della DARPA ha detto che prenderebbe in considerazione una varietà di interfacce utente (non lascia troppi dettagli sul modo in cui il progetto XAI dovrebbe spiegare se stesso.)

Gli abstract per i potenziali progetti sono previsti per il 1 ° settembre e DARPA prevede di consegnare diversi premi ai ricercatori. Questi includono contratti di appalto e accordi di cooperazione, ma l'agenzia non distribuirà sovvenzioni. L'agenzia è anche alla ricerca di team in grado di condurre ricerche Come A.I. dovrebbe spiegarsi; in altre parole, i ricercatori devono studiare un A.I. allo stesso modo gli psicologi studiano come la mente umana elabora le informazioni in varie circostanze.

$config[ads_kvadrat] not found