Intelligenza artificiale, più pericolosa del regime coreano

Sinistra: il fuoco di prova di un missile balistico in una posizione sconosciuta in Corea del Nord in una foto senza data, rilasciata dall’agenzia coreana ufficiale della Corea del Nord, il 30 maggio 2017. (STR / AFP / Getty Images); Destra: Il Ceo di SpaceX, Elon Musk, svela il razzo Falcon Heavy al National Press Club di Washington, il 5 aprile 2011. (NICHOLAS KAMM / AFP / Getty Images)

La terza guerra mondiale non scoppierà per un missile nucleare lanciato dalla Corea del Nord, ma piuttosto – sostiene l’amministratore delegato di SpaceX e Tesla, Elon Musk – per la corsa all’intelligenza artificiale più avanzata.

Nonostante le continue minacce nucleari e intercontinentali, Musk suppone che sarebbe un suicidio per il regime di Kim Jong-un lanciare sul serio un missile nucleare contro un altro Paese, dato che poi la Corea del Sud, gli Stati Uniti e la Cina invaderebbero. Pur  avendo sostenuto il suo compagno comunista nella guerra di Corea contro gli Stati Uniti negli anni ’50, la Cina oggi sta dimostrando di voler restare perlomeno neutrale davanti a un potenziale conflitto.

La corsa all’intelligenza artificiale (Ai) d’altra parte è già iniziata, come afferma Musk, che rilancia le osservazioni esposte il primo settembre dal presidente russo Vladimir Putin, secondo cui il dominio mondiale apparterrà a chi sarà leader nell’Ai: «L’intelligenza artificiale è il futuro non solo per la Russia, ma per tutta l’umanità – ha affermato Putin durante il suo discorso agli studenti russi, nel loro primo giorno di scuola – Offre opportunità colossali, ma porta anche minacce difficili da prevedere. Chi diventerà il leader in questo campo diverrà sovrano del mondo».

«Cina, Russia presto diventeranno tutti Paesi con forti scienze informatiche – ha twittato Musk – Secondo me la corsa alla superiorità nell’Ai sarà probabile causa della Terza Guerra Mondiale».

Musk si è espresso anche sui rischi dell’Ai, e ha riunito degli esperti nel campo in un sollecito alle Nazioni Unite per bandire le armi controllate dall’Ai. In precedenza aveva anche affermato che se l’Ai continuasse ad avanzare, alla fine si abbasserà drasticamente il livello dell’intelligenza umana, perché, anche se tale Ai si dovesse rivelare vantaggiosa, essa relegherebbe l’umanità al ruolo di animale domestico; tuttavia, se si rivelasse ostile, potrebbe attaccare gli esseri umani: non per malvagità o per altre emozioni umane, ma per puro calcolo speculatorio, ovvero «se decidesse che un attacco preventivo (Sic) sia è la più probabile strada per la vittoria», ha fatto sapere Musk via Twitter, il 4 settembre.

Il Future of Life Institute, una non-profit che cerca di incoraggiare l’uso positivo delle tecnologie future, propone una serie di principi per governare lo sviluppo futuro dell’Ai; ma anche se i principi sono stati approvati da centinaia di esperti, l’organizzazione riconosce che sarà difficile evitare completamente il rischio dal quale Musk ha messo in guardia.

«Le azioni antisociali o distruttive possono derivare da fasi logiche per perseguire obiettivi apparentemente vantaggiosi o neutri – afferma l’amministratore delegato di Space X – Un certo numero di ricercatori, che studiano il problema, hanno concluso che è sorprendentemente difficile proteggere completamente da questo effetto e che potrebbe diventare ancora più difficile, in quanto i sistemi diventano più intelligenti. Potrebbero, ad esempio, considerare i nostri sforzi per controllarli come ostacoli al raggiungimento dei loro obiettivi».

Articolo in inglese: World War III ‘Most Likely’ Over AI, Not North Korea: SpaceX, Tesla CEO

Traduzione Massimo Marcon

Top