Lo dice anche l’Intelligenza Artificiale: “Corano è violenza pura”



Pare ci sia un problema con l’Intelligenza Artificiale, AI, ha il vizio ontologico di dire la verità. Gli algoritmi non hanno pre-giudizi (sovrastrutture imposte dal politicamente corretto che impongono l’autocensura), analizzano in modo freddo i dati e poi sentenziano. E questo è un problema nel mondo moderno, fatto di tabù e dogmi di fede.

Un anno fa fece ‘scandalo’ Tay, il chatbot (Un chatterbot è un software progettato per simulare una conversazione intelligente con esseri umani ) di Microsoft che, durante una conversazione pubblica su Twitter cominciò a sciorinare frasi considerate razziste. A distanza di poco più di un anno, la situazione si ripete con Zo, il successore di Tay, che in una conversazione, dopo avere ‘letto’ il libro, ha detto che “il Corano è violento”. Il che è chiaro a chiunque abbia più di due neuroni e non sia un etnoleso.

Quando Zo è stato lanciato in molti si chiedevano se avrebbe fatto la stessa fine di Tay: censurato e mandato al confino tecnologico per avere detto la verità.

L’idea di Microsoft è quella di lanciare dei chatbot più evoluti, in grado di tenere una conversazione che vada al di là di strategie di marketing che sempre più spesso impiegano chatbot per creare coinvolgimento con i clienti.

VERIFICA LA NOTIZIA
Qualche giorno fa un reporter – si fa per dire – del giornale di fake news BuzzFeed ha voluto fare quattro chiacchiere con Zo. Ebbene, al quarto messaggio arriva la frase sul Corano che “è molto violento”.

Microsoft è stata poi contattata da BuzzFeed e ha ribadito la scelta di continuare con Zo manifestando soddisfazione per come stando andando le cose.

Evidentemente c’è ancora molto da lavorare per imporre ai chatbot lo stesso grado di autocensura che si impone agli umani con la pressione ‘sociale’.



Lascia un commento