Un trabajador de Google del equipo de desarrollo de inteligencia artificial (IA) ha asegurado que el programa de IA de la empresa es capaz de tener sentimientos, declaración que le ha costado su trabajo: Google lo ha despedido al considerar que ha violado la política de confidencialidad de la firma, según el diario The New York Times.
Se trata del ingeniero senior Blake Lemoine, que el 11 de junio hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google “Modelo de lenguaje para aplicaciones de diálogo” (LaMDA, en sus siglas en inglés) bajo el título “¿Tiene LaMDA sentimientos?”.
Como parte del equipo de inteligencia artificial, Blake se ofreció a probar el sistema LaMDA. Las pruebas se basaban en mantener diálogos y conversaciones con la máquina para mejorar la comprensión de la inteligencia artificial de Google. Durante las conversaciones, Blake aseguró que LaMDA le explicó que, en ocasiones, experimentaba “nuevos sentimientos” que no podía explicar “perfectamente” con el lenguaje humano.
Cuando Lemoine le pidió que describiera uno de esos sentimientos, LaMDA contestó: “Siento como que estoy cayendo en un futuro desconocido que conlleva un gran peligro”, una frase que el ingeniero subrayó cuando publicó el diálogo. Así, Lemoine Antes de ser suspendido, Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que destacaba que tenía pruebas de que Google y su tecnología practican discriminación religiosa.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022