Intelligenza artificiale: la guerra in mano ai robot

(Shutterstock)

La guerra robotica non è più solo un tema da fantascienza. Uno scenario molto simile a quello che faceva da sfondo a Terminator, film cult del 1984 di James Cameron e interpretato da Arnold Schwarzenegger, appare ormai sinistramente vicino. La tecnologia sembra ormai sufficientemente evoluta affinché, in un futuro ormai prossimo, macchine comandate da computer intelligenti (appositamente programmati) e armate con le più devastanti armi convenzionali esistenti, siano in grado di attaccare in assoluta autonomia. Non droni telecomandati, quindi, ma macchine armate intelligenti, capaci di condurre senza l’intervento dell’uomo ogni tipo di attacco terrestre, aereo o marino.

Non si tratta di un’esagerazione: oltre 1500 tra i maggiori studiosi, ricercatori ed esperti di intelligenza artificiale del mondo, hanno infatti firmato una lettera aperta per chiedere alle Nazioni Unite di prendere posizione nei confronti del problema delle armi autonome e proibirle.

Questa iniziativa delle massime autorità in materia di intelligenza artificiale, ha anche ricevuto l’appoggio trasversale di personalità di fama mondiale, come il linguista e politologo Noam Chomsky, il co-fondatore della Apple Steve Wozniak e l’astro-fisco Stephen Hawking, per citarne solo alcuni.

Epoch Times ha deciso di tradurre e pubblicare integralmente la lettera, così che il lettore possa comprendere direttamente dalle parole dagli addetti ai lavori i termini di un simile problema, e dunque formare da sé la propria idea in merito a una materia le cui gravi implicazioni – umane e morali, innanzitutto – non possono essere sottovalutate.

Armi autonome: lettera aperta dai ricercatori di robotica e intelligenza artificiale

Le armi autonome selezionano e attaccano gli obiettivi senza intervento umano, e possono essere – ad esempio – quadricotteri armati capaci di cercare ed eliminare determinate persone che rispondano a dei criteri predefiniti, ma escludono missili da crociera e droni telecomandati, per i quali ci sono esseri umani che prendono tutte le decisioni relative all’obiettivo da colpire.

L’intelligenza artificiale ha raggiunto un punto in cui lo sviluppo di questo genere di sistema – praticamente se non legalmente – sarebbe fattibile non nel corso di decenni ma di anni. Si tratta di una questione molto delicata: dopo la polvere da sparo e le armi nucleari, le armi autonome sono state descritte come la terza rivoluzione bellica.

Il tema delle armi autonome ha generato numerosi dibattiti, sia a favore sia contro: ad esempio, il fatto che sostituire soldati umani con macchine sarebbe una cosa buona per la conseguente riduzione di perdite umane per chi ha l’arma automatica, ma avrebbe l’aspetto negativo di diminuire la soglia decisionale dello scontro.

La questione fondamentale per l’umanità attualmente è se iniziare una corsa agli armamenti di armi a intelligenza artificiale o prevenirla. Se i vertici militari insistono per lo sviluppo delle armi a intelligenza artificiale, una corsa agli armamenti globale è virtualmente inevitabile. E il punto di impatto di questa traiettoria tecnologica è ovvio: le armi autonome saranno i Kalashnikov di domani. Diversamente dalle armi nucleari, le armi autonome non richiedono materiali grezzi costosi o difficili da reperire, così che diventerebbero armi comuni e di basso costo per la produzione di massa di tutti i maggiori apparati militari.

Sarebbe solo questione di tempo, prima che inizino a essere commerciate sul mercato nero e a finire nelle mani dei terroristi, di dittatori che vogliono controllare meglio le loro popolazioni, signori della guerra che perpetrano operazioni di pulizia etica eccetera. Le armi autonome sono ideali per compiti quali: assassinii, destabilizzazione di una nazione, sottomissione di una popolazione e sterminio sistematico di uno specifico gruppo etnico.

Crediamo, perciò, che una corsa agli armamenti di armi comandate da intelligenza artificiale non sarebbe di alcun beneficio per l’umanità. Ci sono molti modi in cui l’intelligenza artificiale potrebbe rendere i campi di battaglia più sicuri per gli esseri umani, specialmente i civili, senza che vengano creati nuovi strumenti per uccidere le persone.

Proprio come la maggior parte dei chimici e dei biologi non ha alcun interesse a produrre armi chimiche e batteriologiche, la maggior parte dei ricercatori di intelligenza artificiale non hanno nessun interesse nel costruire armi comandate da intelligenza artificiale. E nemmeno vogliono che il loro campo di studi venga oscurato da questo genere di azioni, dando così luogo a un grande movimento pubblico di opposizione all’intelligenza artificiale, che ne limiterebbe i futuri benefici per la società. Infatti, chimici e biologi hanno ampiamente sostenuto alcuni accordi internazionali che hanno proibito con successo le armi chimiche e batteriologiche, così come la maggior parte dei fisici hanno dato il loro sostegno alla conclusione dei trattati internazionali che mettono al bando armi nucleari basate nello spazio e armi laser accecanti.

In conclusione, crediamo che l’intelligenza artificiale possa potenzialmente essere di grande beneficio per l’umanità, in molti modi, e che l’obiettivo comune dovrebbe essere questo. L’inizio di una corsa agli armamenti a intelligenza artificiale è una pessima idea e dovrebbe essere prevenuta con una messa al bando delle armi di offesa autonome indipendenti da ogni effettivo controllo umano.

Top