Publicidad
 

VIEDMA

|
01/09/2023

"Deepfake": cómo detectar y cuidarse de las desinformaciones por inteligencia artificial

Aporte de la UNRN.
"Deepfake": cómo detectar y cuidarse de las desinformaciones por inteligencia artificial
"Deepfake": cómo detectar y cuidarse de las desinformaciones por inteligencia artificial

La evolución constante de la Inteligencia Artificial (IA) ha propiciado la aparición de los "deepfakes", una tecnología con la habilidad de generar imágenes y videos.  En la actualidad se pueden entrenar algoritmos de IA para manipular fotos o contenido audiovisual realistas de personas diciendo o haciendo cualquier cosa. Un "deepfake" es una forma avanzada de manipulación digital que utiliza técnicas de IA para posibilitar la creación y edición de contenido audiovisual que parece auténtico y realista, pero que en realidad es completamente artificial.

Aunque esta tecnología tiene aplicaciones interesantes, como en la industria cinematográfica o la mejora de las videollamadas, también tiene peligros potenciales, como la suplantación de identidad, el engaño y el fraude. El auge de los "deepfakes" ha generado inquietudes significativas en relación con la desinformación y la manipulación, haciendo que estas tecnologías pueden socavar la autenticación de contenido y dificultar la confianza en medios visuales y auditivos.

La capacidad para difundir información falsa desde fuentes aparentemente confiables genera preocupaciones graves sobre desinformación, ciberseguridad y posibles perjuicios personales y sociales en un panorama donde también coexisten usos legítimos. Se pueden aprovechar de estas técnicas para engañar a las personas, por tanto es necesario ser cauteloso, consciente y precavido ya que la tecnología avanza rápidamente, lo que también puede dificultar la distinción entre imágenes o vídeos reales y aquellos falsos.

¿Cómo se puede detectar una imagen creada con inteligencia artificial?

Con el incremento de la popularidad la generación de imágenes, identificar esta clase de contenido se ha tornado una tarea muy desafiante, principalmente debido al grado de realismo alcanzado por las diferentes herramientas disponibles en el mercado. Pero aún hoy en día se pueden seguir ciertos lineamientos generales que te ayudan a determinar el posible origen de una imagen, por ejemplo, es frecuente que en este tipo de imágenes se encuentren patrones o artefactos visuales que resulten extraños e inconsistentes dentro del contexto de la misma, como es el caso de reflecciones incorrectas o proporciones innaturales. También se puede analizar la información propia del archivo, es decir sus metadatos, los cuales en caso de corresponder a una imagen generada es posible que no existan. Otra posibilidad, es la de comparar con imágenes generadas por IA ya conocidas, debido a que en caso de haberse utilizado la misma herramienta, es más fácil detectar similitudes entre las mismas.

 

 

¿Cómo sería el recurso para detectarlo en un video?

La detección de imágenes generadas por IA en videos implica distintos desafíos debido a la naturaleza secuencial del video. Además, la IA puede crear vídeos que pueden engañar a la percepción humana. Sin embargo, se pueden aplicar diferentes técnicas para su detección:

  • Análisis del movimiento: Si se analiza el patrón de movimiento de un video, y posteriormente se detectan movimientos poco naturales, transiciones abruptas o inconsistencias en la dinámica del movimiento. Es muy probable que se haya generado con IA.
  • Comparación de fotogramas: Si se examinan fotogramas sucesivos en un video, se pueden revelar inconsistencias visuales que podrían indicar la inserción de imágenes generadas por IA.
  • Seguimiento de objetos: Observando el comportamiento de objetos en movimiento en el video, puede revelar diferencias en su trayectoria, lo que podría indicar la presencia de imágenes generadas por IA.
  • Coherencia de estilo: Al igual que con las imágenes, los videos generados con IA, pueden mostrar problemas de coherencia en el estilo, como objetos que no encajan bien en el entorno, o cambios drásticos en el estilo visual en diferentes partes del video.
  • Distribución de colores y tonos: Algunos algoritmos de generación de IA pueden producir videos con distribuciones de colores y tonos poco realistas o inusuales. Analizar la distribución de colores a lo largo del video podría ayudar a detectar indicios de imágenes generadas con IA.
  • Algoritmos de detección de imágenes falsas: Existen algoritmos actuales proporcionan pistas e indicios, pero no son concluyentes al 100%, y dejan la decisión final en manos del usuario. La propia industria de la tecnología tiene como desafío y objetivo mejorar los algoritmos que puedan detectar y diferenciar entre imágenes falsas y reales.

¿Qué aspectos se deben tener en cuenta para cuidarse de las desinformaciones, según expertos de Viedma?

Para cuidarse de la desinformación provocada por las imágenes falsas principalmente se debe tener conciencia de la existencia de las mismas. Teniendo esto en mente es importante verificar la fuente de donde se obtienen las imágenes o videos para saber que tan confiables pueden ser, no es lo mismo confiar en una imagen que se envió a través de una red social, que si fue sacada de un artículo científico.

En conclusión, existen peligros potenciales en el uso de la Inteligencia Artificial, por tanto es importante mantenerse alerta y proactivo para combatir la creciente complejidad de las técnicas de manipulación de imágenes y video.

Este tema de actualidad contó con el aporte del grupo de trabajo de IA del Laboratorio de Informática Aplicada conformado entre docentes y estudiantes avanzados de la Licenciatura en Sistemas de la Universidad Nacional de Río Negro (UNRN) que se dicta en la Sede Atlántica.

 

¿Qué opinión tenés sobre esta nota?