Google, Facebook e Microsoft vogliono fare A.I. Servire l'umanità

$config[ads_kvadrat] not found

What Google, Facebook And Apple Can Learn From Microsoft’s 1998 Antitrust Fight

What Google, Facebook And Apple Can Learn From Microsoft’s 1998 Antitrust Fight
Anonim

Cinque giganti dell'industria tecnologica hanno unito le forze per creare la "Partnership sull'intelligenza artificiale a beneficio delle persone e della società", un gruppo che vuole condurre ricerche su A.I. etica e come la tecnologia può funzionare al meglio con gli esseri umani. Google, Facebook, Microsoft, IBM, DeepMind (una sussidiaria di Google) e Amazon si sono tutti impegnati in un progetto che mira "a studiare e formulare le migliori pratiche su A.I. tecnologie, per far avanzare la comprensione del pubblico di A.I. e per fungere da piattaforma aperta per la discussione e l'impegno su A.I. e le sue influenze sulle persone e sulla società ".

Anche se sembra che il gruppo possa cadere in discussioni fasulle sui punti più sottili del software oscuro, la partnership pone al centro del suo sito web un mantra che mostra di comprendere le eccitanti possibilità A.I. possiamo tenere per l'umanità: "Riteniamo che le tecnologie di intelligenza artificiale rappresentino una grande promessa per migliorare la qualità della vita delle persone e possano essere sfruttate per aiutare l'umanità ad affrontare importanti sfide globali come il cambiamento climatico, il cibo, la disuguaglianza, la salute e l'istruzione".

Il partenariato promette un dialogo aperto su A.I. etica, ma non si può negare che un consorzio di grandi attori dia loro un certo potere sulla direzione della conversazione. Oltre a chiudere le startup, questo potrebbe avere un impatto su grandi nomi come Tesla, che non fanno parte del gruppo ma hanno un interesse chiave per l'etica attraverso il suo sviluppo del software autopilota.

L'interesse per la definizione di un codice etico è cresciuto lentamente, come più A.I. viene data la responsabilità di fare scelte di vita o di morte. Come dovrebbe comportarsi un auto a guida autonoma, ad esempio in caso di emergenza? La Germania ha delineato le leggi di base che si aspetterebbero da veicoli autonomi, come non classificare le persone come un modo per dare priorità alle azioni in un incidente.

Norme più generali sono arrivate da organizzazioni come il British Standards Institute (BSI). Queste regole, che trattano come se non progettassero robot che possano ferire le persone, mirano a sviluppare un codice universale. La partnership promette che, come il codice BSI, sarà aperto a dialoghi esterni, ma il tempo dirà se è sufficiente per soddisfare gli altri grandi giocatori di A.I.

$config[ads_kvadrat] not found