28 octubre, 2024•By Adalberto Villasana Miranda
Abanico, por Ivette Estrada.
Abanico
Tecnología contra las mentiras
Por Ivette Estrada
La originalidad y la realidad de videos y grabaciones caminan en la cuerda floja. Se mimetizan con creaciones y manipulaciones de Inteligencia Artificial y cada vez se consolida más la interacción del mundo real y el virtual.
La difusión deepfakes se multiplica año a año, pero paradójicamente las tecnologías de IA que se usan para ello, también permiten crear herramientas de detección cada vez más eficientes. Avanzamos en tecnologías que desenmascaran los engaños.
Sólo en Latinoamérica, de 2022 a 2023, aumentaron los videos falsos en 450 % en ese periodo, según un informe de SumSub, plataforma de identificación de identidad. Los sectores más afectados son periodismo, política, entretenimiento y finanzas. Curiosamente iniciaron en el ámbito de la pornografía.
Actualmente, el mercado de las deepfake tiene un valor actual de 534 millones de dólares y puede crecer 961% en 2030.
Los deepfakes son medios sintéticos “mentirosos”. Se generan mediante técnicas de aprendizaje profundo (Deep learning), e incluyen imágenes, vídeos y grabaciones de audio manipulados para retratar a alguien que dice o hace algo que en realidad nunca dijo o hizo.
Las acciones de estos deepfakes son propagar noticias falsas, generar desinformación, desacreditar a alguien, cometer delitos relacionados con el honor, la imagen o el fraude, influir en las votaciones o toma de decisiones o pensamiento grupal, llevar al cabo venganzas, manipular los mercados financieros o desestabilizar las relaciones internacionales.
Si consideramos que lesionan la reputación de personas, empresas (partidos políticos) y marcas, se atenta contra el 80% del valor de una firma o nombre.
Anteriormente la detección de estos deepfakes era sólo la observación y encontrar fallos en las imágenes digitales, como bordes borrosos, piel artificialmente lisa, movimientos entrecortados o antinaturales…
Una forma sencilla de detectar si estamos ante un posible Deepfake es fijarse en cuántas veces parpadea la persona de la imagen. Los vidos muy cortos son otro indicio de falsedad y un recurso para detectar el engaño es detectar quien empezó a compartir el material-.
Desajustes entre el audio y la imagen es otro signo de engaño y algo que resulta común en los videos falsos es el interior de la boca de las personas: Los algoritmos de inteligencia artificial son incapaces de copiar con precisión la lengua, los dientes y el interior de la boca al hablar.
Sin embargo, hoy las tecnologías identifican y aprenden de grandes cantidades de datos para generar medios falsos de apariencia realista.
Ahora, ¿cómo descubrimos si un video o grabación de audio no es real? Mario Micucci, Investigador de seguridad informática de ESET Latinoamérica, menciona herramientas basadas en IA que utilizan algoritmos de aprendizaje automático para analizar patrones en videos y audios. Busca inconsistencias que podrían indicar manipulación.
Micucci menciona a Sentinel, Oz Liveness, HyperVerge, FakeCatcher Deepware, Phoneme-Viseme Mismatch y DuckDuckGoose.
También existen herramientas basadas análisis de metadatos como la fecha de creación del archivo o la ubicación de la grabación. Herramientas como MediaInfo y ExifTool facilitan la extracción y el análisis de estos metadatos. Finalmente existen herramientas buscan patrones inusuales en el movimiento facial, la voz o el contenido del video que podrían indicar deepfakes. Algunos ejemplos incluyen FaceForensics y Audio Fingerprinting.
Silvio Lira Mojica Si no puede que renuncien El pasado miércoles 19 de octubre el Presidente Andrés Manuel López Obrador dijo sobre los gobernadores que, cuando una persona no da resultados debe renunciar. Bajo este criterio, entonces ya es tiempo que la Comunidad Politécnica le solicite a dicho Presidente que, le pidamos la renuncia a […]
Como se esperaba, los diputados de morena, con abstención inexplicable de los opositores, aprobaron la ley de protección del Espacio Aéreo Mexicano y con ello, les entregaron a las fuerzas armadas la administración del cielo nacional y con ello, los militares ahora son los dueños disfrazados de administradores de todo lo que tenga que ver con la aeronavegación.
Aunque no las soporto, las mañaneras deben continuar porque son el testimonio de todas las violaciones a la ley, incumplimiento de promesas y de las más de 100 mil mentiras que hasta hoy ha cometido y dicho el ganso de Macuspana.
Deja un comentario