HTCinside



Microsoft anuncia Video Authenticator para identificar Deepfakes

Para contrarrestar la proliferación defalsificaciones profundas, Microsoft ha lanzado una nueva herramienta de autenticación de video que se puede usar para analizar una imagen fija o un video para determinar un porcentaje de probabilidad de que un medio haya sido manipulado artificialmente.

En el caso de un video, Microsoft afirmó que este porcentaje podría proporcionarse en tiempo real para cada cuadro mientras se reproduce el video. Detecta la línea de fusión de una escala de grises sutil y profunda o elementos que se desvanecen que pueden no ser visibles para el ojo humano.


Deepfakes o medios sintéticos pueden ser fotos, videos o archivos de audio manipulados por inteligencia artificial (IA). La detección de falsificaciones profundas es vital en las próximas elecciones estadounidenses, según Microsoft.

La tecnología se creó utilizando un conjunto de datos públicos de Face Forensic ++. Microsoft dijo que se probó con el conjunto de datos DeepFake Detection Challenge, que se cree que es el modelo líder. para entrenar y probar las tecnologías entrantes de detección de billetes falsos.

“Anticipamos que los métodos de generación de medios sintéticos seguirán creciendo en complejidad. Dado que todos los métodos de detección de IA tienen tasas de error, debemos comprender y estar preparados para reaccionar ante las falsificaciones profundamente arraigadas que pasan por los métodos de detección”. dijo la compañía en una publicación de blog.

“A largo plazo, por lo tanto, debemos buscar formas más sólidas de mantener y certificar la autenticidad de los artículos de noticias y otros medios”.


Con algunas herramientas disponibles, Microsoft también ha introducido una nueva tecnología que puede detectar contenido manipulado y garantizar que los medios que está viendo sean genuinos.

La tecnología consta de dos componentes. La primera es una herramienta integrada en Microsoft Azure que permite a un productor de contenido agregar hash y certificados digitales al contenido.

“Hashes y certificados viven con contenido como metadatos, donde sea que esté en línea”, dijo Microsoft.

El segundo es un lector que se puede incluir en una extensión del navegador que verifica certificados y compara hashes con coincidencias para determinar la autenticidad.


Microsoft también se asoció con AI Foundation en su profunda batalla falsa. Como parte de la asociación, ambas partes proporcionarán autenticadores de video a organizaciones involucradas en el proceso democrático, incluidas organizaciones de noticias y campañas políticas, a través de la iniciativa Reality Defender 2020 de la fundación.

Inicialmente, el autenticador de video solo estará disponible a través de la iniciativa.

Otra asociación con un consorcio de empresas de medios conocido como Project Origin está probando la tecnología de autenticidad de Microsoft. Una iniciativa de varios editores y empresas de redes sociales, Trusted News Initiative, también acordó trabajar con Microsoft para probar su tecnología.

La Universidad de Washington, Sensibilidad interna de detección de falsificaciones y USA Today también se han asociado con Microsoft para mejorar la alfabetización mediática.


“Al mejorar la alfabetización mediática, las personas pueden eliminar la información errónea basada en hechos reales y gestionar los riesgos de falsificaciones profundas y baratas”, dijo Microsoft. “Conocer los medios puede permitirnos a todos pensar críticamente sobre el contexto de los medios y convertirnos en ciudadanos más comprometidos mientras disfrutamos de la sátira y la parodia”.

Como parte de esta asociación, habrá una campaña de anuncios de servicio público que invitará a las personas a 'hacer una pausa para reflexionar' y verificar que la información provenga de una organización de noticias acreditada antes de compartirla o promocionarla. en las redes sociales antes de las elecciones.

Los partidos también lanzaron un cuestionario para que los votantes estadounidenses aprendan más sobre los medios sintéticos.