Il rapido progresso di A.I. dovrebbe essere spaventoso se stai prestando attenzione

$config[ads_kvadrat] not found

Autosabotaggio: Perchè Accade & Come Superarlo | MOTIVAZIONE

Autosabotaggio: Perchè Accade & Come Superarlo | MOTIVAZIONE
Anonim

Quando si tratta di identificare le minacce esistenziali poste dalle innovazioni tecnologiche, l'immaginazione popolare evoca visioni di Terminator, La matrice, e Io Robot - distopie governate da signori robot che sfruttano e sterminano le persone in massa. In questi futuri speculativi, una combinazione di superintelligenti e cattive intenzioni porta i computer a annientare o schiavizzare la razza umana.

Tuttavia, un nuovo studio suggerisce che saranno le banali applicazioni di A.I. ciò porterà a gravi conseguenze sociali entro i prossimi anni. Il rapporto - "Uso dannoso dell'intelligenza artificiale" - scritto da 26 ricercatori e scienziati di università d'élite e gruppi di esperti focalizzati sulla tecnologia, delinea i modi in cui l'attuale A.I. le tecnologie minacciano la nostra sicurezza fisica, digitale e politica. Per mettere a fuoco il loro studio, il gruppo di ricerca ha esaminato solo la tecnologia che esiste già o plausibilmente entro i prossimi cinque anni.

Cosa ha trovato lo studio: A.I. i sistemi probabilmente espanderanno le minacce esistenti, ne introdurranno di nuove e ne modificheranno il carattere. La tesi del rapporto è che i progressi tecnologici renderanno più facili e male i misfatti. I ricercatori sostengono che i miglioramenti in A.I. diminuirà la quantità di risorse e competenze necessarie per attuare alcuni attacchi informatici, riducendo efficacemente gli ostacoli alla criminalità:

I costi degli attacchi possono essere ridotti dall'uso scalabile dei sistemi di intelligenza artificiale per completare compiti che richiederebbero normalmente lavoro umano, intelligenza e competenza. Un effetto naturale sarebbe quello di espandere l'insieme di attori che possono eseguire attacchi particolari, la velocità con cui possono eseguire questi attacchi e l'insieme di potenziali obiettivi.

La relazione formula quattro raccomandazioni:

1 - I policymaker dovrebbero collaborare strettamente con i ricercatori tecnici per indagare, prevenire e mitigare i potenziali usi dannosi dell'IA.

2 - I ricercatori e gli ingegneri dell'intelligenza artificiale dovrebbero prendere sul serio la natura a duplice uso del loro lavoro, consentendo considerazioni errate per influenzare le priorità e le norme di ricerca e raggiungere in modo proattivo gli attori rilevanti quando le applicazioni dannose sono prevedibili.

3 - Le migliori pratiche dovrebbero essere identificate nelle aree di ricerca con metodi più maturi per affrontare i problemi del duplice uso, come la sicurezza dei computer, e importati laddove applicabile al caso dell'IA.

4 - Cercare attivamente di ampliare la gamma di stakeholder e esperti di dominio coinvolti nella discussione di queste sfide

Come A.I. può rendere le truffe attuali più intelligenti: Ad esempio, gli attacchi di spear phishing, in cui i truffatori si presentano come amici di un bersaglio, familiari o colleghi al fine di ottenere la fiducia e estrarre informazioni e denaro, sono già una minaccia. Ma oggi richiedono un notevole dispendio di tempo, energia e competenza. Come A.I. i sistemi aumentano la sofisticazione, alcune delle attività richieste per un attacco di spear phishing, come la raccolta di informazioni su un bersaglio, possono essere automatizzate. Un phisher potrebbe quindi investire molta meno energia in ogni turno e indirizzare più persone.

E se i truffatori iniziano a integrare A.I. nei loro grifoni online, potrebbe diventare impossibile distinguere la realtà dalla simulazione. "Con il crescere dell'IA, convincere i chatbot potrebbe suscitare fiducia nell'uomo coinvolgendo le persone in dialoghi più lunghi e magari eventualmente mascherarsi visivamente come un'altra persona in una chat video", afferma il rapporto.

Abbiamo già visto le conseguenze del video generato dalla macchina sotto forma di Deepfakes. Poiché queste tecnologie diventano più accessibili e facili da usare, i ricercatori temono che i cattivi attori diffondano foto, video e file audio fabbricati. Ciò potrebbe portare a campagne di diffamazione di grande successo con implicazioni politiche.

Oltre la tastiera: E il potenziale malfatto non è limitato a Internet. Mentre ci muoviamo verso l'adozione di veicoli autonomi, gli hacker potrebbero utilizzare esempi contraddittori per ingannare le auto che si guidano da sole verso l'errata percezione dell'ambiente circostante. "L'immagine di un segnale di stop con pochi pixel modificati in modi specifici, che l'uomo riconoscerebbe facilmente come immagine di uno stop, potrebbe tuttavia essere classificata in modo errato come qualcosa di completamente diverso da un sistema di intelligenza artificiale", afferma il rapporto.

Altre minacce includono droni autonomi con software di riconoscimento facciale integrato per scopi di targeting, attacchi DOS coordinati che imitano il comportamento umano e campagne di disinformazione automatizzate e iper-personalizzate.

Il rapporto raccomanda che i ricercatori considerino potenziali applicazioni dannose di A.I. durante lo sviluppo di queste tecnologie. Se non vengono messe in atto adeguate misure di difesa, allora potremmo già disporre della tecnologia per distruggere l'umanità, non sono necessari robot killer.

$config[ads_kvadrat] not found