Files
Download Full Text (1.6 MB)
Description
La inteligencia artificial ha creado una revolución en la creación de imágenes. Hoy por hoy, sus modelos son capaces de generar contenido visual con mucho realismo cosa que hasta hace poco era completamente impensable. La IA generativa nos da oportunidades sin precedentes en campos como el arte, el entretenimiento, la investigación o la medicina. Aunque se cuenta con estos beneficios, la IA generativa no viene sin sus amenazas, principalmente por la aparición de los deepfakes y medios sintéticos de carácter malicioso que son usados para la desinformación, manipulación de la política y vulneración de la identidad personal entre otras acciones. Ante esta situación, donde se presentan usos positivos para la sociedad como negativos, es necesario que se desarrollen metodologías robustas para validar la calidad de las imágenes generadas por la IA y para la detección forense de las manipulaciones.
En este TFM se va a presentar un análisis exhaustivo y crítico del estado del arte de la generación, validación y detección de las imágenes sintéticas generadas por la IA. Se comenzará recorriendo históricamente la evolución de los modelos de Inteligencia Artificial Generativa, desde los sistemas pioneros que se basaban en reglas hasta las arquitecturas de deep learning que están dominando hoy en día. Después, se hará un análisis técnico en profundidad de los paradigmas de generación más importantes: las GANs (Redes Generativas Antagónicas), centrándose en concreto en arquitecturas clave como StyleGAN, Pix2Pix y CycleGAN; los VAEs (Autoencoders Variacionales); los Modelos de Difusión como el Stable Diffusion; y la adaptación de los Transformers a la visión por computador.
El núcleo de este trabajo se va a centrar en dos áreas. Primero, la detención de los “deepfakes”, dende se analizan y categorizan artefactos visuales y frecuenciales que sirven como “huellas digitales” de la generación sintética, y se evalúan las metodologías de detección que están basadas en CNNs (Redes Neuronales Convolucionales) y Transformers. Segundo, validar los modelos generativos, donde se examinan las métricas utilizadas para medir la fidelidad y diversidad de las imágenes, incluyendo un análisis crítico de métricas estándar como FID (Fréchet Inception Distance) y otras más alineadas con la percepción humana como LPIPS (Learned Perceptual Image Patch Similarity).
Finalmente, se explorarán las implicaciones éticas y prácticas de esta tecnología. Se presentará un caso de estudio detallado sobre la aplicación de la generación de datos sintéticos en imágenes médicas para afrontar el desafío de la escasez de datos y privacidad en el diagnóstico de enfermedades como el Alzheimer y patologías pulmonares. Este análisis se juntará con una discusión sobre las importantes consecuencias sociales de los deepfakes, la disminuyente confianza de la gente en estos temas y la urgente necesidad de marcos regulatorios y de responsabilidad. El trabajo finaliza resumiendo los hallazgos y proponiendo algunas líneas futuras de investigación centradas en el desarrollo de métricas más robustas, detectores de IA capaces de generalizar más y un uso más ético y seguro de la IA generativa.
Publication Date
2025
City
Madrid
Keywords
Inteligencia Artificial Generativa; Generación de Imágenes; Deepfake; GAN (Redes Generativas Antagónicas); Modelos de Difusión; Validación de Modelos; FID (Fréchet Inception Distance); Imagen Médica Sintética; Ética de la IA.
Recommended Citation
Montero González, Miguel Ángel, "Validación y Detección de Imágenes Generadas por Inteligencia Artificial" (2025). Máster en Inteligencia Artificial. 21.
https://sciencevalue.udit.es/tfm_videojuegos_tecnologia/21
