Escuchá WOU RADIO en vivo!

Luciano
Top
Image Alt

FALLAS EN EL CHATBOT

  /  Tecnología   /  FALLAS EN EL CHATBOT

FALLAS EN EL CHATBOT

Trabajadores de Google dicen que su chatbot tiene fallas éticas

“El imperio tecnológico busca ganancias y no mide los daños que puede causar con Bard, el nuevo sistema de inteligencia artificial” denunciaron los trabajadores.

Poco antes de que Google presentara Bard, su chatbot de inteligencia artificial, en marzo, pidió a los empleados que probaran la herramienta. La conclusión de un trabajador: Bard era “un mentiroso patológico”, según las capturas de pantalla de la discusión interna. Otro lo llamó “digno de vergüenza”. Un empleado escribió que cuando le pidieron sugerencias a Bard sobre cómo aterrizar un avión, regularmente dio consejos que conducirían a un accidente; otro dijo que dio respuestas sobre el buceo “que probablemente resultaría en lesiones graves o la muerte”.

Google lanzó Bard de todos modos. El chatbot proporciona información de baja calidad en una carrera para mantenerse al día con la competencia, al tiempo que le da menos prioridad a sus compromisos éticos, según revelaron 18 trabajadores actuales y anteriores de la empresa con  documentación interna revisada por la editorial Bloomberg. 

La empresa propiedad de Alphabet Inc. se comprometió en 2021 a duplicar el equipo encargado de analizar la ética de la inteligencia artificial y a invertir más recursos en la evaluación de los daños potenciales de la tecnología. Pero el debut en noviembre de 2022 del popular chatbot de su rival OpenAI hizo que Google se esforzara por incorporar la IA generativa en todos sus productos más importantes en cuestión de meses.

Ese fue un ritmo de desarrollo notablemente más rápido para la tecnología, y uno que podría tener un profundo impacto social. El grupo que trabaja en ética que Google se comprometió a fortalecer ahora está desempoderado y desmoralizado, dijeron.

Y señalaron que se les pidió que no se interpongan en el camino ni intenten eliminar ninguna de las herramientas de IA generativa en desarrollo. 

Google tiene como objetivo revitalizar su negocio de búsqueda en torno a la tecnología de punta, que podría poner IA generativa en millones de teléfonos y hogares en todo el mundo, idealmente antes de que OpenAI.

“La ética de la IA ha pasado a un segundo plano”, dijo Meredith Whittaker, presidenta de Signal Foundation, exgerente de Google. “Si la ética no está posicionada para tener prioridad sobre las ganancias y el crecimiento, en última instancia, no funcionarán”.

De igual forma, Google sostuvo que mantiene su promesa de inversión “en los equipos que trabajan en la aplicación de nuestros Principios de IA a nuestra tecnología”, dijo Brian Gabriel, un vocero de la empresa. 

“Los líderes de Google manifestaron que mientras llamara a los nuevos productos “experimentos”, el público podría perdonar sus defectos”, dijeron los empleados. 

En febrero, un empleado planteó problemas en un grupo de mensajes internos: “Bard es peor que inútil: por favor, no lo lance”. La nota fue vista por casi 7000 personas, muchas de las cuales estuvieron de acuerdo en que las respuestas de la herramienta de IA eran contradictorias o incluso notoriamente incorrectas en consultas fácticas simples.

 

Al mes siguiente, la jefa del área anuló la evaluación de riesgos que afirmaba que Bard no estaba listo porque podría causar daño, según personas familiarizadas con el asunto. Poco después,  Bard se abrió al público, y la compañía lo llamó un “experimento”.