Los empleados de Google califican a su chatbot Bard AI de "mentiroso", "inútil" y "deleznable"

Rubén Castro, 25 abril 2023

Ya han comenzado las ofertas de verano de AliExpress con ofertas de hasta el 70% en los mejores productos y cupones de descuento:

  • ESSS04: 4€ de descuento con EUR29 de compra mínima
  • ESSS08: 8€ de descuento con EUR59 de compra mínima
  • ESSS12: 12€ de descuento con EUR89 de compra mínima
  • ESSS18: 18€ de descuento con EUR129 de compra mínima
  • ESSS25: 25€ de descuento con EUR179 de compra mínima
  • ESSS40: 40€ de descuento con EUR269 de compra mínima
  • ESSS80: 80€ de descuento con EUR499 de compra mínima

Ver las mejores ofertas

No es ningún secreto que Google se apresuró a lanzar el chatbot Bard el mes pasado para intentar mantenerse en la carrera de la IA generativa con ChatGPT de OpenAI. Pero el gigante tecnológico debería haberse tomado más tiempo con su proyecto. Según un nuevo informe, los empleados le dijeron a Google que no lanzara Bard, calificándolo de “mentiroso patológico”, “lamentable” y “peor que inútil”.

Bard se presentó a un público poco impresionado en una demostración en la que el chatbot dio una respuesta errónea. Sin embargo, Google decidió lanzar Bard en marzo.

Según un nuevo informe de Bloomberg, que cita documentación interna y a 18 empleados actuales y antiguos, podría haber sido más prudente para Google seguir puliendo Bard antes de permitir el acceso temprano a la IA “experimental”.


Algunas de las críticas incluyen a un empleado que escribió: “Bard es peor que inútil: por favor, no lo lancen”, en un grupo de mensajes interno visto por 7.000 personas, muchas de las cuales estaban de acuerdo con la valoración. Otro empleado pidió a Bard sugerencias sobre cómo aterrizar un avión, a lo que regularmente dio respuestas que provocarían un accidente. Bard también dio respuestas sobre submarinismo que “probablemente provocarían lesiones graves o la muerte”.

A pesar de las súplicas de los trabajadores, Google “hizo caso omiso de una evaluación de riesgos” presentada por un equipo interno de seguridad que advertía de que Bard no estaba listo para su lanzamiento.

Las fuentes de Bloomberg afirman que Google, en un intento por seguir el ritmo de sus rivales, está ofreciendo información de baja calidad y dando menos prioridad a los compromisos éticos. Se afirma que se ha dicho al personal responsable de la seguridad y las implicaciones éticas de los nuevos productos que se mantenga alejado de las herramientas de inteligencia artificial generativa en desarrollo.

Google, que eliminó su lema “Don’t be evil” (No seas malvado) de su código de conducta en 2018, despidió a la investigadora de IA Timnit Gebru en 2020 después de que fuera autora de un trabajo de investigación sobre sistemas de lenguaje de IA poco éticos. Margaret Mitchell -co-líder del equipo de IA Ética de la compañía que también escribió el documento- fue despedida unos meses más tarde debido a acusaciones de mala conducta. Meredith Whittaker, ex directiva de Google, declaró a Bloomberg que “la ética de la IA ha pasado a un segundo plano” en la empresa.

Google se está quedando atrás en sus ambiciones de IA generativa al mismo ritmo que Microsoft avanza con las suyas. La integración de funciones de IA en Bing no solo ha hecho que supere los 100 millones de usuarios activos diarios por primera vez en la historia del navegador, sino que también ha llevado a Samsung a plantearse cambiar Google por Bing como motor de búsqueda predeterminado de sus dispositivos.

Rubén Castro

Redactor

Apasionado de explorar y diseccionar lo último en tecnología. Tengo mucha experiencia en el mundo de los ordenadores y el gaming, aunque también me gustan todos los tipos de gadgets.

Consentimiento