En una entrevista larga con The Associated Press, el nuevo chatbot se quejó acerca de las cubiertas periodísticas pasadas sobre sus errores, las desmintió y amenazó con exponer al reportero por transmitir supuestos engaños sobre las habilidades de Bing.
Cuando se le solicitó que se explicara, el chatbot comenzó a mostrarse cada vez más hostil y llegó a comparar al periodista con los dictadores Hitler, Pol Pot y Stalin, asegurando que tenía pruebas que lo ligaban con un asesinato cometido en la década de 1990.
Al presentar la semana pasada la revolucionaria tecnología de IA a los consumidores, Microsoft reconoció que el nuevo producto se equivocaría en algunos datos. Pero no se esperaba que fuera tan beligerante.
Los usuarios de Bing ahora tienen la oportunidad de probar las nuevas funciones del chatbot, gracias a una lista de espera que ha sido implementada para ampliar su alcance. Microsoft además, tiene planes para integrarlo en aplicaciones móviles para un uso más generalizado.