• 21 de enero de 2026
  • Cristina Henche Fernández
  • 0
Compartir en

La implementación de la inteligencia artificial (en adelante, la “IA”) generativa plantea riesgos y desafíos en diferentes ámbitos, incluido el jurídico.

En materia de protección de datos, el uso de imágenes de personas identificadas o identificables en sistemas de IA constituye un tratamiento de datos personales conforme al Reglamento General de Protección de Datos del Parlamento Europeo y del Consejo, de 27 de abril de 2016 (en adelante, el “RGPD”). El simple hecho – cada vez más frecuente – de subir una imagen (fotografía o un vídeo) a una herramienta o aplicación de IA para generar contenido, incluso con fines aparentemente triviales, implica riesgos significativos para la privacidad y otros derechos fundamentales.

La Agencia Española de Protección de Datos (en adelante, la “AEPD”) advierte, en la guía publicada en enero de 2026, sobre los riesgos, tanto visibles como invisibles, del uso de imágenes de terceros en sistemas de IA.

Los riesgos visibles se relacionan con el impacto social, reputacional, personal, profesional y psicológico que puede producir la difusión de imágenes generadas. Esto es especialmente relevante cuando existe sexualización a partir de una imagen neutra, cuando se atribuyen a una persona hechos, conductas o escenas irreales que afectan a su reputación, o cuando se perjudica a menores o a personas en situación de especial vulnerabilidad. Todo ello, unido al actual mundo viral en el que vivimos, en el que el contenido se propaga masivamente a gran velocidad a través de redes sociales, dificulta especialmente el control sobre las imágenes generadas con IA, haciendo casi imposible su eliminación completa.

Incluso sin difusión, subir imágenes a sistemas de IA conlleva riesgos ocultos. La citada guía de la AEPD destaca, entre otros riesgos menos visibles, la pérdida de control sobre la imagen; la posible retención técnica y la existencia de copias invisibles que se conservan sin conocimiento del afectado; el consentimiento, muchas veces inconsciente, de las finalidades añadidas, por el que las imágenes pueden usarse más allá del propósito inicial; la generación de metadatos e inferencias; la dificultad para ejercer derechos de acceso, supresión u oposición; así como otros posibles riesgo derivados de brechas de seguridad.

En muchos casos —como en el ámbito estrictamente personal o doméstico— el uso de IA generativa, aunque no exento de riesgos, queda fuera del ámbito de aplicación de la normativa de protección de datos. En otros, no solo se aplican las normas de protección de datos, sino también otros cuerpos legales, incluido el Código Penal, cuando las imágenes afectan a derechos fundamentales como el honor, la intimidad o la propia imagen.

Con el fin de adaptarse al entorno digital, en enero de 2026, el Consejo de Ministros ha aprobado el Anteproyecto de Ley Orgánica de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.

Entre las principales novedades del Anteproyecto destacan:

  • la consideración como intromisión ilegítima del uso de la voz o imagen sin autorización con fines publicitarios o comerciales mediante IA o tecnologías similares;
  • la aclaración —en línea con el principio de limitación de finalidad del RGPD— de que la publicación voluntaria de imágenes personales en redes sociales no autoriza su reutilización por terceros en otros canales;
  • y la regulación de criterios de gravedad para fijar las indemnizaciones por daño moral, que, según el texto, no podrán tener un carácter meramente simbólico.

En definitiva, resulta esencial conocer el alcance de los riesgos asociados al uso de imágenes en sistemas de IA y realizar siempre un uso responsable de estas tecnologías.