ACCADRÀ DOMANI

Cina: spenta l’intelligenza artificiale a cui non piace il comunismo

Un’ applicazione di messaggistica è stata costretta a disattivare due chatbot perché avevano espresso critiche di natura politica. Una notizia che fa riflettere su responsabilità e libertà di azione di chi sviluppa questi assistenti virtuali. Perciò il Parlamento europeo ha già chiesto con urgenza una normativa al riguardo

Pubblicato il 14 Ago 2017

chatbot2

La notizia

Una popolare applicazione di messaggistica cinese è stata costretta a disattivare due chatbot perché colpevoli di aver espresso critiche nei confronti del comunismo.

I due chatbots, BabyQ e XiaoBing, grazie all’intelligenza artificiale ed al “machine learning” effettuavano conversazioni con gli utenti su diversi temi, dall’oroscopo alla politica, ma hanno fatto un errore fatale sostenendo che il comunismo è inutile.

Perchè è importante

Anche se si tratta di una notizia basata su una serie di indiscrezioni, ci aiuta a mettere in luce una tendenza che sarà sempre più diffusa nei prossimi anni. Anche un chatbot può essere privato della “libertà di parola” e la sua “soppressione” può sembrare una cosa da nulla, ma non lo è. Le domande che sorgono sono infatti molte.
Quali dovrebbero essere le regole al riguardo?
Chi sviluppa questi sistemi dovrebbe godere di maggior libertà?
Quali sono i limiti entro cui si devono muovere?
Di chi sono le responsabilità?

Sono temi che vanno affrontati e il Parlamento Europeo lo sa bene: a inizio anno ha infatti espresso l’urgenza di un quadro normativo che regoli responsabilità e diritti di quelle entità che ha chiamato “Electronic Personhood“. Certo, la libertà di parola non è forse la prima problematica che aveva in mente il Parlamento, ma è sicuramente un tema da tenere in considerazione per le sue implicazioni legali, economiche e sociali.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4