Uso indebido de deepfakes en España ¿es suficiente la multa aplicada?
La Agencia Española de Protección de Datos (AEPD) emitió recientemente una resolución relativa a la difusión de imágenes alteradas mediante inteligencia artificial. En ellas se insertaban rostros reales en cuerpos desnudos generados digitalmente y luego se difundían a través de redes sociales y servicios de mensajería.
En su análisis, la AEPD estableció que la imagen – incluso cuando ha sido alterada digitalmente – sigue siendo un dato personal si permite identificar a una persona. En consecuencia, la manipulación y difusión de estas imágenes constituye un tratamiento de datos personales en los términos del General Data Protection Regulation (GDPR). Junto con ello, la Agencia fue clara al establecer que el tratamiento se realizó sin contar con ninguna base de licitud al no existir consentimiento, obligación legal o ninguna otra condición que permita legitimar el mismo, lo que lo convierte claramente en ilegítimo.
Asimismo, del contenido de la resolución se desprenden elementos relevantes sobre las personas afectadas, lo cual permite comprender la especial gravedad del caso. De esta manera, pueden inferirse que los datos corresponden a menores de edad, pues la AEPD alude a que los afectados cuentan con protección reforzada –categoría que la normativa reserva exclusivamente a los menores– y cita expresamente el artículo 84 de la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD), relativo a la protección de los menores en Internet. A ello se suma que la resolución menciona a los “progenitores” como representantes legales del infractor, reforzando dicha interpretación.
Finalmente, a la luz de los hechos expuestos, la AEPD decide fijar inicialmente una multa de 2.000 euros, la cual se reduce a 1.200 euros tras acogerse el infractor al reconocimiento de responsabilidad y pago voluntario, reducciones obligatorias reconocidas en la normativa.
De esta manera, esta resolución marca un precedente relevante: se trata de la primera sanción que aborda directamente el uso de deepfakes, es decir, imágenes generadas o alteradas mediante inteligencia artificial. Los deepfakes permiten combinar o modificar rostros y cuerpos con un alto nivel de realismo, de manera tal que resulta extremadamente difícil distinguir qué es verdadero y qué es falso. Aunque la tecnología detrás de los deepfakes tiene aplicaciones legítimas, su uso indebido, especialmente involucrando a menores de edad, constituye una grave afectación a sus derechos.
A pesar de lo anterior, uno de los elementos más llamativos del caso es la sanción impuesta. Los 1200 euros – alrededor de un millón de pesos chilenos – resultan claramente insuficientes frente a la gravedad de los hechos. Considerando que se utilizaron técnicas de inteligencia artificial para generar contenido sexual falso y que todo apunta a que las víctimas eran menores de edad, la multa se vuelve irrisoria respecto del impacto y daño que este tipo de práctica puede causar. La magnitud del riesgo, la posibilidad de viralización y la dificultad de revertir la difusión de estos contenidos ponen de manifiesto que el marco sancionatorio no alcanza para responder adecuadamente a una tecnología que amplifica exponencialmente las consecuencias.
En definitiva, este caso debería impulsar una reflexión y cambio en Chile. Con la pronta entrada en vigencia de la ley N°19.628, modificada por la ley N°21.719, será fundamental que el marco sancionatorio y fiscalizador este preparado para abordar prácticas de este tipo. Más aún, cuando en nuestro país ya se han registrado casos graves, como el ocurrido en el año 2024 en el Colegio Saint George, donde se difundieron imágenes falsas de estudiantes creadas con inteligencia artificial. Contar con una institucionalidad robusta y con herramientas verdaderamente disuasorias será clave para enfrentar los desafíos que plantea la inteligencia artificial y la protección de datos en nuestro país.