¿Quieres detectar a una persona falsa en videollamada?

Rubén Castro, 16 agosto 2022

Ya ha comenzado las ofertas del 14 Aniversario de AliExpress. El segundo evento de ventas más importante del año con muchos descuentos y cupones. Ofertas de hasta el 70% en los mejores productos y códigos de descuento:

  • ESAN05 y KODl05: 5€ de descuento con EUR39 de compra mínima
  • ESAN10 y KODl10: 8€ de descuento con EUR79 de compra mínima
  • ESAN20 y KODl20: 20€ de descuento con EUR159 de compra mínima
  • ESAN40 y KODl40: 40€ de descuento con EUR299 de compra mínima
  • ESAN80 y KODl80: 80€ de descuento con EUR499 de compra mínima

Ver las mejores ofertas

Se puede descubrir una videollamada deepfake pidiendo al sospechoso que se gire en dirección contraria. La semana pasada, el truco fue dado a conocer por la empresa londinense Metaphysic.ai.

Se utilizó la aplicación DeepFaceLive para convertir a una persona corriente en una celebridad.


La mayoría de las actividades implicaban mirar hacia delante. Cuando los rostros se giraban noventa grados en sentido contrario a las agujas del reloj, se rompía el encanto.

Al intentar predecir las vistas laterales de los rostros, el equipo cree que el software utiliza menos puntos de referencia que las versiones anteriores. Por ello, el sistema es incapaz de predecir con precisión su aparición.

La mayoría de los programas estándar de alineación en 2D tienen en cuenta que una vista de perfil está oculta en un 50%, lo que repercute en el reconocimiento, el entrenamiento y la síntesis del rostro. El autor es Martin Anderson, de Metaphysic.ai.

“Los marcadores de perfil frecuentemente “saltan” a cualquier combinación de píxeles que pueda sugerir un “ojo perdido” u otro elemento facial cuando se ve de perfil”

A través del trabajo duro, estas áreas de debilidad pueden ser mejoradas.

El usuario DesiFakes en YouTube transformó a Jerry Seinfeld en el personaje Pulp Fiction. Fue necesario un post-procesamiento. El perfil de Seinfeld era similar al del actor.

La única vez que nos filman o fotografían de perfil es cuando estamos bajo custodia policial.

Los algoritmos de Deepfake pueden llegar a ser incapaces de generar perspectivas laterales genuinas si no se les proporcionan los datos de entrenamiento adecuados.

Este descubrimiento llega en un momento en el que han surgido preocupaciones sobre las videollamadas deepfake.

Los alcaldes europeos fueron engañados por Vitali Klitschko en una conversación de vídeo que tuvo lugar en junio.

Unos días más tarde, el FBI alertó de que los estafadores estaban utilizando deepfakes en entrevistas de trabajo para puestos remotos que implicaban información sensible.

Es posible que el side-on no haya ayudado a todas las víctimas. Es posible que los futuros puntos de referencia en 3D puedan proporcionar vistas de perfil creíbles, y que los modelos CGI realistas sustituyan algún día a las cabezas enteras.

El enfoque de vista lateral proporciona un medio adicional para identificar a los falsificadores y evitar su detención.

Rubén Castro

Redactor

Apasionado de explorar y diseccionar lo último en tecnología. Tengo mucha experiencia en el mundo de los ordenadores y el gaming, aunque también me gustan todos los tipos de gadgets.

Consentimiento