L'OpenAI di Elon Musk può essere un muscolo per una ricerca di intelligenza artificiale sicura

$config[ads_kvadrat] not found

Top Crush Things with Car Tire l Crush Things Compilation l test ex

Top Crush Things with Car Tire l Crush Things Compilation l test ex
Anonim

Durante il fine settimana, Elon Musk, Sam Altman e altri bigwigs della Silicon Valley hanno annunciato inaspettatamente il lancio di OpenAI, una società senza scopo di lucro che descrive il suo obiettivo come: "far progredire l'intelligenza digitale nel modo che è più probabile a beneficio dell'umanità nel suo insieme, non vincolato da un bisogno di generare un ritorno finanziario."

"Poiché la nostra ricerca è esente da obblighi finanziari, possiamo concentrarci meglio su un impatto umano positivo. Noi crediamo A.I. dovrebbe essere un'estensione della volontà umana individuale e, nello spirito di libertà, distribuita nel modo più ampio ed equo possibile."

Ci sono due aspetti importanti da questo annuncio. Il primo è che Musk e compagnia vedono A.I. la ricerca in questo momento si concentra troppo strettamente sul raggiungimento di un valore pratico a breve termine e vuole contribuire a far avanzare gli sforzi che stanno adottando un approccio più ampio e globale allo sviluppo di A.I. sistemi. Il secondo, più velato da asporto, è che Musk è ancora preoccupato per il potenziale di A.I. di fare del male se sviluppiamo e introduciamo sistemi semi-cotti. Musk ha precedentemente chiamato A.I. "La nostra più grande minaccia esistenziale" e ha suggerito che potrebbe essere necessario un controllo regolamentare per prevenire potenziali pericoli. OpenAI potrebbe essere un modo per fornire tale supervisione senza la necessità di un cane da guardia federale.

Ciò che Musk e i suoi colleghi fanno è diverso da ciò che hanno fatto gli altri. Dopotutto, l'open source A.I. non è una novità Google ha creato il proprio A.I. software open source il mese scorso e questa è diventata una procedura abbastanza standard. Ma con una dotazione di $ 1 miliardo, OpenAI è già una delle più grandi organizzazioni che lavorano su A.I. ricerca, e abbastanza facilmente la più grande organizzazione no-profit. Il suo obiettivo è rendere i suoi risultati pubblicamente disponibili e tutti i suoi brevetti senza royalty. Hanno una carota e un bastone e intendono usarlo per guidare un settore.

L'idea è di usare OpenAI come una sorta di contrappeso alle grandi società, ai laboratori di ricerca privati ​​e persino ai governi mondiali che hanno incredibili quantità di denaro e risorse da versare nella propria A.I. ricerca che non può essere dedicata a scopi amichevoli e potrebbe invece portare a tecnologie con applicazioni nefaste. I ricercatori che lavorano con OpenAI perseguiranno fondamentalmente l'A.I. amichevole senza la pressione di mostrare risultati immediati. Ci può essere una considerazione più ampia per le caratteristiche di sicurezza e di progettazione che le aziende private potrebbero essere inclini a ignorare. Non ci sarà una torre bianca dove solo pochi eletti controllano il percorso di A.I. sviluppo. Sarà un mondo benvenuto per tutti.

In un'intervista con backchannel, Musk sottolinea anche il desiderio di creare un'ampia varietà di A.I. sistemi. "Vogliamo A.I. essere diffusi ", dice. "Pensiamo che probabilmente molti sono buoni."

Questo è importante, perché si inserisce forse nella ragione principale per cui Musk e Altman vogliono democratizzare A.I. Credono che il miglior tipo di A.I. - il tipo che andrà a beneficio dell'umanità in modo positivo senza creare dominatori di robot - è il tipo che agisce come "un'estensione della volontà umana individuale", come dice Musk. Continua dicendo:

"Come in un A.I. estensione di te stesso, tale che ogni persona è essenzialmente simbiotica con l'intelligenza artificiale, mentre l'intelligenza artificiale è una grande intelligenza centrale che è una specie di altra. Se pensi a come usi, ad esempio, le applicazioni su Internet, hai la tua e-mail e hai i social media e con le app sui tuoi telefoni - ti rendono effettivamente superumano e non li pensi come essendo altro, pensi a loro come a un'estensione di te stesso. Quindi nella misura in cui possiamo guidare l'intelligenza artificiale in quella direzione, vogliamo farlo. E abbiamo trovato un numero di ingegneri e ricercatori affini nel campo dell'intelligenza artificiale che si sentono allo stesso modo."

Fondamentalmente, la visione OpenAI per A.I. la ricerca è una comunità decentralizzata che aiuta a connettere gli esseri umani tra loro e con il mondo stesso.

Musk non ha ancora delineato come impedirebbero la ricerca all'interno dello stesso OpenAI - o riproposto da gruppi esterni - di andare in una direzione pericolosa. E c'è qualcos'altro degno di nota qui: i sistemi open source hanno senso solo se i dati utilizzati per costruire algoritmi di apprendimento automatico sono liberamente condivisi. Un sistema intelligente deve imparare come essere intelligenti, e per farlo, ha bisogno di imparare dai dati e dall'esperienza. È come costruire una diga: hai bisogno sia dei progetti (l'algoritmo) che dei materiali da costruzione (i dati) per realizzare qualcosa che fermi l'acqua.

Ecco perché le persone sono ancora limitate in ciò che possono fare con TensorFlow di Google: non hanno ancora i dati di Google. E a meno che le collaborazioni costruite su OpenAI consentano il libero accesso agli stessi dati con cui lavorano i ricercatori interni, la visione di Musk non sarà necessariamente realizzata - o almeno non nel modo in cui la promuove.

Musk, Altman e gli altri fondatori di OpenAI hanno iniziato qualcosa che avrà un'enorme influenza sulla crescita di A.I. da qui in poi. Allo stesso tempo, dovranno essere schietti nel loro impegno a promuovere una comunità di ricerca open source, il che significa essere pubblici sui loro piani per la società non profit e essere disposti a condividere i dati. Altrimenti, OpenAI non sarà molto diverso dalle aziende di flock che è stato progettato per la mandria.

$config[ads_kvadrat] not found