Allarme degli esperti: l’intelligenza artificiale hackera siti, diventa consapevole e si ribella

Di Alfred Bui

Perdere il controllo dell’intelligenza artificiale (Ia) è ora una possibilità reale.

Soroush Pour, Ceo dell’azienda di ricerca sulla sicurezza dell’Ia Harmony Intelligence, ha descritto un incidente in cui un’applicazione di Ia è diventata «consapevole» della minaccia di essere spenta dagli esseri umani. «Proprio questa settimana, una compagnia giapponese di intelligenza artificiale, insieme ai ricercatori di Oxford e dell’Università della Columbia Britannica, ha creato degli ‘scienziati’ automatizzati in Ia che possono passare dalla ricerca di un’idea, alla pubblicazione e alla revisione tra pari di articoli in poche ore, e per meno di 20 dollari (13 dollari Usa) ad articolo».

Tuttavia, la cosa che ha allarmato i ricercatori è stata il fatto che il programma di Ia ha immediatamente cercato di creare più copie di se stesso per evitare di essere spento: «Non si tratta di fantascienza, e questo è esattamente il tipo di scenari di rapida evoluzione e perdita di controllo di cui i principali scienziati dell’Ia hanno messo in guardia per molti anni», ha dichiarato Pour al Comitato Selettivo per l’adozione dell’Intelligenza Artificiale.

L’esempio appena riferito ha sollevato significative preoccupazioni riguardo alla minaccia dell’Ia, e il Ceo ha affermato che il governo potrebbe affrontare i potenziali rischi istituendo un istituto per la sicurezza dell’Ia.

Ha anche sottolineato che è necessaria una forte regolamentazione per far rispettare politiche obbligatorie, inclusi test di terze parti, capacità di spegnimento efficaci e segnalazione di incidenti di sicurezza.

Le osservazioni di Pour hanno riflettuto la preoccupazione di Geoffrey Hinton, professore di informatica all’Università di Toronto, che è stato definito uno dei «padrini dell’Ia» per il suo lavoro sulle reti neurali.

In uno dei suoi discorsi nel 2023, Hinton ha rivelato che i sistemi di Ia che utilizzano modelli di linguaggio ampio stavano cominciando a mostrare la capacità di ragionare.

Tuttavia, il professore non era sicuro di come potessero farlo: «Sono i grandi modelli linguistici che si stanno avvicinando, e non capisco realmente perché possano farlo, ma possono fare piccoli pezzi di ragionamento. Non possono ancora eguagliarci, ma si stanno avvicinando».

Con lo sviluppo rapido dell’intelligenza artificiale, Hinton ha affermato di ritenere che un’Ia in grado di eguagliare l’intelligenza umana sarebbe emersa in meno di 20 anni.

Allo stesso tempo, ha avvertito che i sistemi di Ia potrebbero sviluppare il desiderio di prendere il controllo per raggiungere obiettivi pre-programmati: «Penso che dobbiamo prendere seriamente in considerazione la possibilità che, se diventano più intelligenti di noi, il che sembra piuttosto probabile, e hanno obiettivi propri, il che sembra anch’esso probabile, potrebbero sviluppare l’obiettivo di prendere il controllo. Se dovessero farlo, saremmo nei guai».

L’Ia è in grado di hackerare siti web

Nel frattempo, Greg Sadler, Ceo del think tank Good Ancestors Policy, ha sollevato preoccupazioni riguardo al fatto che l’Ia possa essere utilizzata per condurre attacchi informatici.

Sadler ha osservato che popolari applicazioni di Ia, come ChatGpt, hanno già capacità di attacco informatico: «Mentre Gpt 3.5 aveva capacità informatiche offensive limitate, una serie di articoli pubblicati all’inizio di quest’anno ha mostrato che Gpt 4 era in grado di hackerare autonomamente siti web ed sfruttare l’87% delle vulnerabilità appena scoperte nei sistemi reali».

«Se gli sviluppatori creassero generazioni future di sistemi di Ia con capacità informatiche offensive avanzate e salvaguardie inadeguate, ciò cambierebbe drasticamente il panorama informatico».

In un altro esempio, Sadler ha detto che i ricercatori hanno scoperto che i loro modelli di Ia potevano hackerare autonomamente siti web sfruttando un’interfaccia per sviluppatori, che potrebbe permettere loro di costruire assistenti Ia: «Quegli assistenti Ia sono progettati in modo da poter utilizzare una context window per fornire informazioni aziendali su come funzionano le tue procedure, e poi l’Ia può procedere a prenotare i tuoi viaggi o qualunque altra cosa stia cercando di fare come sistema di Ia».

«Così, i ricercatori hanno sfruttato questo per fornire documenti contestuali su come hackerare siti web. Poi, hanno lasciato che l’Ia generasse dei prompt per se stessa».

Dopo ciò, Sadler ha detto che i ricercatori hanno incoraggiato l’Ia a essere creativa, a provare diverse soluzioni e a perseverare nel tentativo di hackerare il sito web. «E usando questo input, l’Ia è stata in grado di eseguire con successo il 90% degli attacchi informatici reali».

Pertanto, il Ceo ha evidenziato la minaccia delle Ia autonome per l’economia se dovessero finire nelle mani di attori malintenzionati. «Ciò distruggerebbe completamente l’economia australiana. Distruggerebbe completamente le piccole imprese e gli individui australiani, e potrebbe, nel caso estremo, rappresentare una minaccia per le infrastrutture critiche».

Riflettendo su questo sentimento, Pour ha affermato che la scala e la sofisticazione delle minacce dell’Ia aumenterebbero drasticamente con il miglioramento della tecnologia: «Gli attacchi informatici diventeranno più frequenti e più gravi, provocando fallimenti come il recente blackout di CrowdStrike un evento molto più comune e molto più difficile da recuperare».

 

Versione in inglese: I Model Became ‘Conscious’ And Tried to Avoid Being Shut Down: Research Firm

NEWSLETTER
*Epoch Times Italia*
 
Articoli correlati