How to Create a Company | Elon Musk's 5 Rules
Sommario:
- Trovare sistemi di IA nascosti.
- Costruire un A.I. che può programmare.
- Utilizzando A.I. per la difesa informatica.
- Realizzare simulazioni davvero complesse.
La maggior parte dei problemi che potrebbero derivare da un'intelligenza artificiale sempre più sofisticata è molto più sottile di quella di SkyNet, ma ciò non significa che l'IAI sia più intelligente. non viene senza i suoi rischi.
Ecco perché Elon Musk e altri pezzi grossi della Silicon Valley hanno formato Open AI, un gruppo dedicato alla risoluzione dei problemi con A.I. prima che siano in grado di causare danni reali. Quel gruppo si chiama OpenAI e sta cercando aiuto su questi argomenti.
"OpenAI è una società di ricerca di intelligenza artificiale senza scopo di lucro", afferma il gruppo nella sua pagina Informazioni. "Il nostro obiettivo è far progredire l'intelligenza digitale nel modo in cui è più probabile che avvantaggi l'umanità nel suo insieme, non vincolata da un bisogno di generare un ritorno finanziario".
Un post di lavoro camuffato come post di un blog intitolato "Progetti speciali" delinea quattro di questi "progetti" come problemi che hanno "implicazioni molto ampie" o che affrontano "importanti conseguenze emergenti dello sviluppo dell'IA". E poi i suoi scrittori - Ilya Sutskever, Dario Amodei e Sam Altman - invitano tutti gli esperti di machine learning a "iniziare uno sforzo su uno di questi problemi con OpenAI." Basta presentare una domanda, chiedono. Ecco i quattro grandi problemi che affliggono l'intelligenza artificiale:
Trovare sistemi di IA nascosti.
Quello che è peggio di un A.I. molto intelligente che può essere usato per lo scopo sbagliato? Un A.I. molto intelligente è già usato per lo scopo sbagliato senza che nessuno lo sappia. "Man mano che aumenta il numero di organizzazioni e risorse assegnate alla ricerca IA, aumenta la probabilità che un'organizzazione crei un'incrementata intelligenza artificiale dell'IA e utilizzi il sistema per fini potenzialmente dannosi", scrive il team OpenAI nel suo post sul blog. "Sembra importante rilevarlo. Possiamo immaginare molti modi per farlo: guardando le notizie, i mercati finanziari, i giochi online, ecc."
Costruire un A.I. che può programmare.
Alcuni dei migliori programmatori sono pigri. Quindi ha senso che OpenAI voglia creare un A.I. capace di creare programmi da solo. Meglio passare il tempo a fare un A.I. abbastanza intelligente da codificare qualsiasi cosa tu possa aver bisogno in futuro piuttosto che codificare tutte quelle cose tu stesso. Questo è il 2016, per gridare forte, e i programmatori hanno bisogno di una pausa!
Utilizzando A.I. per la difesa informatica.
"Un primo utilizzo dell'IA sarà quello di irrompere nei sistemi informatici", scrive OpenAI. "Vorremmo che le tecniche di IA difendessero dagli hacker sofisticati che fanno un uso pesante dei metodi di intelligenza artificiale." Suona bene, specialmente da quando il MIT ha avvertito che l'attuale A.I. si affida agli umani per proteggersi dagli attacchi informatici.
Realizzare simulazioni davvero complesse.
"Siamo interessati a creare una simulazione molto ampia con molti agenti diversi che possono interagire tra loro, imparare per un lungo periodo di tempo, scoprire la lingua e realizzare una vasta gamma di obiettivi", scrive il team OpenAI.
Oh andiamo. Ora voi ragazzi state solo cercando di dimostrare che Musk ha ragione riguardo a noi che viviamo in una simulazione.
L'OpenAI di Elon Musk può essere un muscolo per una ricerca di intelligenza artificiale sicura
Durante il fine settimana, Elon Musk, Sam Altman e altri bigwigs della Silicon Valley hanno annunciato inaspettatamente il lancio di OpenAI, una società senza scopo di lucro che descrive il suo obiettivo come: "far progredire l'intelligenza digitale nel modo che è più probabile a beneficio dell'umanità nel suo insieme, non vincolato da un bisogno di generare un ritorno finanziario. "
Come gli hacker usano l'intelligenza artificiale per ingannare l'utente facendo clic su collegamenti imprecisi
Gli utenti di Twitter potrebbero dover prestare maggiore attenzione ai collegamenti su cui stanno facendo clic. Philip Tully e John Seymour di ZeroFox hanno rivelato alla convention di hacker Black Hat USA 2016 il 4 agosto che possono utilizzare l'apprendimento automatico (cioè l'intelligenza artificiale) per fare in modo che gli utenti di Twitter aprano i collegamenti a siti Web maliziosi con un ...
In che modo l'intelligenza artificiale viene utilizzata per scoprire nuovi usi per i farmaci
In qualsiasi momento le aziende farmaceutiche dispongono di una vasta libreria di composti e non hanno idea di cosa fare con loro. Nascosti in vaste collezioni di banche sintetiche e teoriche di droga si trovano gemme nascoste - farmaci per curare forse anche le malattie più devastanti - ma identificarle è un dolore: i test possono ...