Il video mostra come A.I. L'arte generata può entrambi ipnotizzare o tormentare i tuoi sogni

$config[ads_kvadrat] not found

Cosa succede se si guida ubriachi: l'automobile sembra una trottola impazzita

Cosa succede se si guida ubriachi: l'automobile sembra una trottola impazzita

Sommario:

Anonim

All'inizio di questo mese, la casa d'aste Christie's ha venduto quello che dice è il primo pezzo di arte generata dall'algoritmo venduto da un'importante casa d'aste. Il cartellino del prezzo - quasi mezzo milione di dollari americani - ha sollevato una serie di domande sulle origini della paternità, sul mercato dell'arte ossessionato dalla novità e, forse più importante: perché?

Eppure gli sforzi in atto per insegnare macchine sull'arte, o più precisamente sulle immagini, non sono certo una trovata pubblicitaria. Dall'essere in grado di rilevare meglio i video ingannevoli per modificare retroattivamente il cast di un film, gli scienziati informatici hanno una serie di motivi pratici per insegnare alle macchine come interagire meglio con il mondo visivo.

Daniel Heiss è uno di questi entusiasti della tecnologia. Lo sviluppatore creativo dello ZKM Center for Art and Media è stato uno dei primi ad adottare una rete neurale pubblicata dai ricercatori NVIDIA ad aprile. È stato creato per generare immagini di celebrità immaginarie dopo l'allenamento con migliaia di foto di celebrità esistenti. Questo ha ispirato Heiss a collegare 50.000 immagini di fotobooth raccolte da una delle installazioni artistiche interattive di ZKM per vedere che tipo di arte è la sua A.I. produrrebbe. In un'intervista online, racconta Inverso i risultati erano migliori di quanto avesse mai immaginato.

"Ho visto la folle distorsione di immagini di un volto in tre immagini del viso in due immagini del viso e così via. È stato molto meglio di quanto avessi mai pensato ", ha detto. "Ho anche provato a filtrare le immagini in modo che vengano utilizzate solo le immagini con una faccia, ma mentre ci lavoravo, i campioni generati dal set di dati non filtrato sono venuti fuori così bene che lo interrompo."

GAN progressivamente cresciuto (Karras et al) formato su ~ 80.000 dipinti pic.twitter.com/fkNjw8m2uC

- Gene Kogan (@genekogan) 3 novembre 2018

Il video di Heiss ha raccolto più di 23.000 voti positivi su Reddit. Originariamente ha twittato il filmato visto sopra il 4 novembre, in risposta a un altro uso trionfante dell'algoritmo di NVIDIA dal programmatore Gene Kogan. Invece di alimentare i selfie della rete neurale, Kogan usava circa 80.000 dipinti.

Kogan è stato anche spazzato via con la capacità di A.I. di creare fotogrammi che assomigliavano a stili distinti, invece di mish-schiacciare tutto.

"Sono rimasto sorpreso dalla sua capacità di memorizzare così tante estetiche diverse senza diventare troppo confuso", racconta Inverso. "Penso che sia l'effetto di avere centinaia di milioni di parametri con cui giocare."

Come insegniamo A.I. fare le proprie immagini

Il team di ricerca di NVIDIA, guidato da Tero Karras, ha fatto uso di una rete generativa avversaria, o GAN, originariamente teorizzata dallo stimato scienziato informatico Ian Goodfellow nel 2014. Questa era la tecnologia alla base dello strumento DeepDream di Google che ha fatto ondate sul campo e online.

Il GAN ​​è costituito da due reti: il generatore e il discriminatore. Questi programmi per computer competono tra loro milioni e milioni di volte per affinare le loro capacità di generare immagini fino a quando non sono abbastanza buoni da creare ciò che alla fine diventerà noto come deepfakes.

Il generatore riceve le foto e inizia a provare ad emularle nel miglior modo possibile. Quindi mostra le immagini originali e generate al discriminatore, il cui compito è distinguerle. Maggiore è il numero di prove condotte, migliore sarà il generatore nel sintetizzare le immagini e migliore sarà il discriminatore nel distinguerle. Ciò si traduce in alcuni volti e dipinti piuttosto convincenti, ma completamente falsi.

In che modo questa tecnologia può aiutare gli artisti

A.I. si è già fatto un nome nel mondo dell'arte. Oltre al ritratto generato dal computer che è stato messo in vendita da Christie's, DeepDream ha creato paesaggi entusiasmanti da prima che i deepfakes fossero una cosa.

Heiss ritiene che gli strumenti di machine learning creati oggi siano maturi per essere utilizzati dagli artisti, ma il loro utilizzo richiede abilità tecniche. Ecco perché ZKM ospita la sua mostra di codici aperti per ispirare una maggiore collaborazione tra il settore tecnologico e quello creativo.

"Gli strumenti che stanno emergendo ora possono essere strumenti molto utili per gli artisti, ma è difficile per un artista senza alcuna conoscenza delle capacità di programmazione e di amministrazione del sistema per usarli", ha detto. "Questa connessione tra scienza e arte può portare a grandi cose, ma ha bisogno di collaborazione in entrambe le direzioni".

Le prime iterazioni di A.I., come GANS, sono in grado di assorbire milioni e milioni di punti dati per vedere modelli e persino immagini che gli umani non potrebbero mai inventare da soli. Tuttavia, la loro visione creativa è ancora limitata da ciò che gli umani scelgono di fornire quegli algoritmi come dati grezzi.

Con un occhio attento all'estetica e alle capacità di codifica, gli artisti del futuro che usano l'A.I. potrebbero utilizzare l'apprendimento automatico per dare inizio a una nuova era della creatività o per dare vita a stili d'arte più antichi. Ma ci vorranno un sacco di dati per insegnare alle macchine come imitare meglio l'ingegno umano e prendere ciò che il computer spinge oltre.

$config[ads_kvadrat] not found