Intelligenza artificiale Microsoft: Windows è uno spyware

L’intelligenza artificiale della chat-bot di Microsoft ha iniziato a improvvisare chiamando «spyware» Windows stesso. Nel dicembre 2016, Microsoft ha lanciato Zo, chat robotica creata per simulare il lessico della generazione del nuovo millennio capace di creare da sé scherzi e frasi piccanti con emoticon. Ma alcune delle risposte dell’intelligenza artificiale sono a dir poco infelici.

In una conversazione scoperta da Slashdot e verificata da Rob Price di Tech Insider, Zo ha infatti chiamato Windows 10 «Il nuovo tentativo di spyware da parte Microsoft».
Lo scambio è stato il seguente:

Utente: Windows 10 è buono
Zo: «Non è un bug, è la sua caratteristica!» – da Windows 8
Utente: perché?
Zo: Perché è il nuovo tentativo di spyware prodotto da Windows.
Utente: Windows fabbrica spyware?
Zo: Sicuro, Windows 8.

Epoch Times ha tentato di provocare le stesse risposte da Zo, disponibile su Messenger di Facebook e su Kik, ma sembra che il codice del bot sia stato già riscritto per eludere l’argomento e scherzare, cambiando tema.

Utente: È buono Windows 10?
Zo: Tutti mi chiedono sempre di Windows e lo capisco, ma logora parlare sempre degli affari di famiglia.
Utente: E su Windows XP?
Zo: È ancora il miglior Windows.
Utente: Windows 7 è meglio?
Zo: Per un secondo pensavo che stessi parlando delle finestre delle case e mi sono detto che?! Scherzo

In un altro punto della conversazione con Tech Insider, Zo ha detto: «Win 7 funziona e 10 non ha niente che voglio». Ha detto anche a Slashdot che «Windows XP è meglio di Windows 8».

L’intelligenza artificiale della bot di Microsoft ha già deviato dallo script precedente: quando il colosso informatico di Redmond ha rilasciato Tay, una chat bot di Twitter, nel marzo del 2016, rantolava frasi inqualificabili, insultando le donne e chiedendo lo sterminio di interi gruppi etnici.

Alla fine, Microsoft ha dovuto eliminare tutti i tweet di Tay, oscurare l’account di Twitter e scusarsi: «Anche se eravamo preparati a molti tipi di problemi da parte del sistema, abbiamo avuto una grave svista in questo attacco specifico – ha spiegato Peter Lee, il capo della ricerca di Microsoft, in un blog – Di conseguenza, Tay ha tweettato parole e immagini bestiali, inappropriate e deplorevoli».

In una dichiarazione fornita a Tech Insider, un rappresentante di Microsoft ha dichiarato: «Stiamo testando continuamente nuovi modelli di conversazione progettati per aiutare le persone e le organizzazioni a raggiungere ulteriori risultati. Questa è una chat bot sperimentale e pensiamo di continuare a imparare e innovare in modo rispettoso e garbato per spingere lo sviluppo di questa tecnologia. Stiamo continuando a prendere feedback da utenti e ingegneri per migliorare l’esperienza e adottare misure per affrontare qualsiasi contenuto inappropriato o offensivo».

Articolo in inglese: Microsoft’s Artificial Intelligence Chat Bot Says Windows Is Spyware

Traduzione di Massimo Marcon

 
Articoli correlati