En 2010, Facebook comenzó a utilizar un software de reconocimiento facial para ayudar a etiquetar las fotos de su millón 200 mil usuarios. Pero la compañía de Mark Zuckerberg dio un paso más allá en su departamento de Inteligencia Artificial, en colaboración con la Universidad de Tel Aviv, al mejorar su herramienta para ser capaz de distinguir rostros casi al mismo nivel que los seres humanos.

 

El proyecto que lleva por nombre Deepface aprendió a identificar 120 millones de parámetros en los rostros apoyado en una base de datos de prueba de unas 4.4 millones de caras etiquetadas de unos 4 mil 30 usuarios, según detalla un estudio publicado por Facebook y publicado por la revista MIT Technology Review.

 

Mientras que en promedio una persona es capaz de identificar si dos fotos desconocidas de un rostro corresponden a la misma persona el 97.53% de las veces, el nuevo software desarrollado por los investigadores de Facebook es capaz de alcanzar el 97.25%, sin importar las variaciones de la iluminación, o si la persona está mirando directamente a la cámara.

 

Esta técnica supera la tasa de error en otros softwares que todavía acusan variaciones como el contraste, los gestos de expresión o, incluso, el envejecimiento, lo que afecta a su precisión. Esta noticia llega luego de que en diciembre la red social anunció un acuerdo para adquirir Face.com, una compañía de software de reconocimiento facial por 60 millones de dólares.

 

Deepface extrae modelos tridimensionales de cada cara, y convierte esos modelos en un patrón plano.

 

Mapea los rasgos faciales en 3D y luego realiza un modelo plano que se filtra por colores para identificar elementos faciales específicos.

 

Deepface aún no está integrado en Facebook, y no hay una fecha exacta para que reciba luz verde. De momento, sus creadores presentarán el software en la próxima Conferencia IEEE en Visión por Computador y Reconocimiento Facial en junio.

 

 

Así funciona

 

DeepFace crea un modelo en 3D de la fotografía mostrada con la base de una cara “normal”, y cambia el ángulo para verla de frente. Después, la red de “neuronas” del sistema analiza la cara ahora reorientada y la describe de manera numérica. Luego compara estas descripciones con otras que haya analizado en el pasado, y si son lo suficientemente similares, llega a la conclusión de que son la misma.

 

 

PAG-26-p9iftxbyh4cojqvfjfrn