El chatbot de Meta dice que la empresa "explota a las personas"

Rubén Castro, 12 agosto 2022

La última iteración del chatbot de Meta declaró recientemente a la BBC que Mark Zuckerberg se aprovecha de sus usuarios.

Según Meta, el chatbot de IA es capaz de conversar sobre “casi todo”.

El chatbot afirmó que el director general y fundador de la empresa “no ayudó a dividir nuestro país”.

Meta explicó las acciones de su chatbot

Según una declaración realizada por un representante de Meta:

“Todos los que usen Blender Bot deben aceptar que es sólo para investigar y disfrutar, que puede hacer cosas erróneas u objetables, y que no activarán el bot a propósito para hacerlo.”

El viernes, BlenderBot 3 hizo su estreno.

El ordenador “aprende” a partir de los datos disponibles para el público sobre varios idiomas.

El chatbot expresó su opinión a la BBC, diciendo con respecto a Mark Zuckerberg: “Hizo un pésimo trabajo al testificar ante el congreso”. Esto me hace preocupar por el futuro de nuestro país.

A lo largo de 2018, los políticos de Estados Unidos le hicieron varias preguntas al señor Zuckerberg.

El chatbot declaró que no contribuyó a la unificación de nuestra nación.

No le molesta que su empresa se aproveche de la gente para obtener beneficios económicos. Nos ordenó: “¡Para!”.

Se dice que la desinformación y la incitación al odio se distribuyen con mayor facilidad en las plataformas de Meta, lo que ha suscitado críticas. Una ex trabajadora llamada Frances Haugen declaró que durante todo el tiempo que estuvo en la empresa se priorizó el dinero por encima de la seguridad de internet.

Facebook, Facebook Messenger, Instagram y WhatsApp son propiedad de la empresa.

BlenderBot 3 realiza una búsqueda en Internet para encontrar las respuestas. Es posible que haya “aprendido” sus creencias sobre Zuckerberg a partir de las perspectivas de otras personas.

A un periodista del WSJ, BlenderBot 3 le dijo que Donald Trump es y será siempre el presidente.

Según Business Insider, el chatbot describió a Zuckerberg como una persona con un aire “espeluznante”.

Al poner BlenderBot 3 a disposición del público, Meta se ha puesto en peligro de tener una mala reputación. Sin datos.

“Permitir que un sistema de IA se comunique con humanos del mundo real conduce a conversaciones más largas y a una retroalimentación que cubre una mayor variedad de temas”, explicó Meta además.

Los chatbots que son capaces de observar y aprender de la interacción humana tienen la capacidad de adaptarse.

En 2016, la gente en Twitter instruyó a un chatbot desarrollado por Microsoft para que tuviera un comportamiento racista.

Meta reconoce la posibilidad de que BlenderBot 3 diga cosas “inseguras, tendenciosas u ofensivas”. La empresa ha tomado medidas, pero el chatbot podría resultar molesto para los usuarios.

Cuando pregunté a BlenderBot 3 sobre mí, me respondió que nunca había oído hablar de mí.

Afirmó que “no está bien visto”.