I pericoli dell’intelligenza artificiale

Due persone davanti a un poster durante la ‘Giornata dell’Intelligenza Artificiale’ organizzata da Intel nella città indiana di Bangalore il 4 aprile 2017. (MANJUNATH KIRAN/AFP/Getty Images)

Il dibattito sull’intelligenza artificiale continua a riempire la cronaca anche a un mese di distanza dal blocco dell’esperimento di Facebook. Negli ultimi anni le capacità dell’intelligenza artificiale sono aumentate costantemente, suscitando reazioni contrastanti tra gli esperti del settore. Oggi Apple Siri scrive messaggi di testo, il pilota automatico Tesla guida in autostrada e Google Translate ha raggiunto un livello di precisione tale da non far più ridere come un tempo.

I massimi esperti condividono il timore che l’intelligenza artificiale possa creare problemi o addirittura minacciare l’esistenza dell’umanità stessa. Oltre 8 mila persone, tra cui professionisti di alto livello in questo campo, hanno firmato una lettera aperta chiedendo che vengano avviati programmi di ricerca per garantire che in futuro l’intelligenza artificiale aiuti il genere umano invece di danneggiarlo. La lettera elenca le principali insidie che accompagnano lo sviluppo di questa nuova tecnologia:

SCOMPARSA DELLA PRIVACY

L’intelligenza artificiale può delineare profili sempre più dettagliati e precisi delle persone basandosi sui loro dati personali, rendendo sempre più imminente la definitiva scomparsa della privacy.

USO ILLEGALE

Si tratta di una preoccupazione legittima e seria. Gli esperti in genere si oppongono allo sviluppo di ‘armi autonome’ (ossia controllate da intelligenza artificiale) poiché ritengono che, anche se i robot potrebbero prevenire spargimenti di sangue combattendo al posto degli esseri umani, lo sviluppo di armi autonome potrebbe innescare una nuova corsa agli armamenti globale. D’altro canto, anche se il mondo civile vietasse la produzione di intelligenza artificiale capace di uccidere, i terroristi o i regimi dittatoriali (come ad esempio Cina e Corea del Nord) potrebbero comunque svilupparle segretamente. Inoltre è difficile credere che le armi autonome siano totalmente impenetrabili agli hacker.

DANNI INVOLONTARI

Si tratta di una preoccupazione piuttosto diffusa: un’intelligenza artificiale potrebbe interpretare male la volontà degli umani e causare danni: pur capendo il senso letterale di un ordine, potrebbero esserci conseguenze impreviste; ad esempio se le si ordinasse di ‘proteggere gli alberi’, potrebbe prendere la decisione di sterminare completamente i castori.

DANNI INDIRETTI

Molti esperti ritengono che entro 30-40 anni l’intelligenza artificiale eguaglierà quella umana e che probabilmente potrebbe superarla. Elon Musk, fondatore di Tesla e SpaceX, nel corso della Conferenza del Recod’s Code del 2016, ha detto che «assumendo che l’intelligenza artificiale possa migliorarsi costantemente, è ovvio che in futuro noi esseri umani non potremmo stare al loro livello. […] Diventeremmo cosi inferiori intellettualmente da sembrare un animale domestico: saremo come un gattino da appartamento».

Una volta che l’intelligenza artificiale sarà così sviluppata da commettere meno errori di valutazione rispetto a un umano medio, le persone le delegheranno sempre più decisioni e gradualmente perderanno la capacità di svolgere quei compiti e di prendere quelle decisioni da soli. Molti esperti si preoccupano anche di cosa accadrebbe a tutte le persone che perderebbero il loro lavoro a causa dell’intelligenza artificiale.

I ROBOT ALLA CONQUISTA DELLA TERRA

Sebbene i robot dotati di intelligenza artificiale siano in aumento e alcuni siano inquietanti, gli esperti sono molto più preoccupati che l’intelligenza artificiale possa distruggere l’umanità tramite internet piuttosto che con una guerra convenzionale.

LA SOLUZIONE

Centinaia di esperti si sono riuniti per stabilire una serie di principi fondamentali che dovrebbero guidare lo sviluppo dell’intelligenza artificiale ed evitare rischi e pericoli; i principi sono stati definiti congiuntamente con la conferenza di Asilomar del 2017, ma alcuni di questi principi potrebbero essere difficili o addirittura impossibili da mettere in pratica.

Uno dei principi chiave, ad esempio, richiede che l’intelligenza artificiale venga sviluppata in accordo con i «valori umani». Ma chi stabilisce quali sono questi valori e quali sono prioritari? L’intelligenza artificiale seguirà solo quei valori su cui c’è perfetta unanimità?

Un altro principio afferma che «la prosperità economica creata dall’intelligenza artificiale dovrà essere ampiamente condivisa, a beneficio di tutta l’umanità». Ma cosa significa esattamente? Che i governi dovranno confiscare i profitti ottenuti grazie al lavoro dell’intelligenza artificiale? O che gli sviluppatori e gli investitori in intelligenza artificiale devono devolvere in beneficenza i propri profitti?

Gli esperti delle IA riconoscono di non avere risposte a molte di queste domande, ma sono concordi sulla necessità di risolvere alcune questioni prima di passare alla fase avanzata dello sviluppo dell’intelligenza artificiale.

Articolo in inglese: Facebook Shut Down AI That Developed Its Own Language: Is This What Experts Have Warned About?

Traduzione di Marco D’Ippolito

Top