Legal y Cumplimiento

Eliminando la fuente: Por qué los Países Bajos impulsan una prohibición europea de las herramientas de IA para ‘desnudar’

Las autoridades neerlandesas piden la prohibición europea de las herramientas de IA para desnudar bajo la Ley de IA de la UE, trasladando el enfoque legal de los usuarios a los desarrolladores.
Eliminando la fuente: Por qué los Países Bajos impulsan una prohibición europea de las herramientas de IA para ‘desnudar’

En el mundo físico, nunca toleraríamos que un extraño nos siguiera por un centro comercial con un dispositivo diseñado para ver a través de nuestra ropa. Lo reconoceríamos instantáneamente como una violación sistémica de la dignidad y un delito flagrante. Sin embargo, en el ámbito digital, las herramientas de ‘desnudar’ (nudify) —aplicaciones impulsadas por IA que pueden eliminar digitalmente la ropa de las fotos— han operado en una precaria zona gris legal, a menudo descartadas como un problema de nicho que las víctimas individuales deben resolver.

Esa era de ambigüedad regulatoria está llegando a su fin. En un movimiento significativo esta semana, la Policía Nacional Neerlandesa, el Servicio de Fiscalía Pública (Openbaar Ministerie) y varias autoridades de los Países Bajos emitieron una declaración conjunta pidiendo una prohibición europea total de estas herramientas. Como detective digital que ha pasado años investigando cómo se utilizan los datos personales como armas, veo esto no solo como un cambio de política, sino como un rediseño fundamental de cómo abordamos el daño digital.

Yendo a la raíz: Apuntando a la fuente, no solo al usuario

Durante años, la respuesta legal a la pornografía deepfake no consentida ha sido reactiva. Las autoridades esperaban a que una víctima se presentara y luego intentaban localizar al perpetrador individual que utilizó la herramienta. Esto es como intentar limpiar un derrame de petróleo con una sola esponja mientras el petrolero sigue perdiendo combustible. Es ineficiente y coloca toda la carga del trauma sobre la víctima.

Las autoridades neerlandesas proponen ahora un cambio en el panorama regulatorio. Al pedir la prohibición de las herramientas en sí, están apuntando a la fuente del daño. Desde el punto de vista del cumplimiento, esto traslada la responsabilidad del usuario final a los desarrolladores y las plataformas de alojamiento. Si la herramienta es ilegal de proporcionar, el riesgo sistémico se mitiga antes de que se renderice el primer píxel. En la práctica, esto significa que la mera existencia de un servicio diseñado para ‘desnudar’ a individuos se convierte en una infracción legal, independientemente de cómo se utilice.

La paradoja del consentimiento

Uno de los aspectos más matizados de la propuesta neerlandesa es el rechazo de la defensa del ‘consentimiento’. Normalmente, en el derecho de privacidad, el consentimiento es una llave que abre la puerta al procesamiento lícito de datos. Si usted acepta que se utilicen sus datos, la empresa suele estar libre de cargos. Sin embargo, la declaración neerlandesa argumenta que las herramientas de nudify deberían estar prohibidas incluso si el individuo representado supuestamente dio su consentimiento.

¿Por qué un enfoque tan estricto? Porque estas herramientas tratan el cuerpo humano como un activo tóxico: algo que puede ser manipulado y explotado sin tener en cuenta las repercusiones psicológicas o de reputación a largo plazo. En un contexto regulatorio, las autoridades argumentan que el potencial de abuso es tan alto, y la tecnología tan intrusiva, que entra en una categoría donde el consentimiento individual no puede anular la necesidad colectiva de protección. Es un reconocimiento de que algunas tecnologías son inherentemente incompatibles con los derechos humanos fundamentales.

La Ley de IA de la UE como brújula regulatoria

Para que esta prohibición sea vinculante a través de las fronteras, los Países Bajos miran hacia la Ley de Inteligencia Artificial de la UE. Esta legislación histórica categoriza los sistemas de IA en función del riesgo. La propuesta neerlandesa sugiere que las herramientas de nudify deberían clasificarse bajo ‘Riesgo Inaceptable’, junto con tecnologías como la vigilancia biométrica en tiempo real o la calificación social por parte de los gobiernos.

Si se adopta esta propuesta, proporcionaría un alcance extraterritorial, lo que significa que cualquier empresa que ofrezca estos servicios a ciudadanos europeos —independientemente de dónde se encuentre su sede— se enfrentaría a multas masivas. Para las empresas, esta es una señal clara: el cumplimiento ya no es solo una lista de verificación; es el cimiento de una casa que debe construirse sobre la ética. Las empresas que ignoran estos vientos de cambio no solo están incumpliendo las normas; están construyendo sus modelos de negocio sobre una falla geológica.

Una investigación meticulosa sobre la higiene digital

Cuando investigo este tipo de herramientas, a menudo encuentro un rastro de migas de pan que conduce a desarrolladores opacos que se esconden tras capas de empresas fantasma. Estas plataformas suelen afirmar que simplemente proporcionan ‘herramientas artísticas’ o ‘entretenimiento’. Sin embargo, cuando se observan los metadatos y las estrategias de marketing, la intención es clara. Están mapeando nuestras vidas y nuestros cuerpos sin nuestro conocimiento, creando un mundo donde ninguna foto está a salvo de la alteración.

Recientemente investigué un caso en el que se utilizó el perfil de redes sociales de un estudiante de secundaria para crear imágenes deepfake. La respuesta de la escuela fue decirles a los estudiantes que ‘tuvieran cuidado con lo que publican’. Esto es el equivalente digital a decirle a alguien que use un impermeable durante una inundación. Las autoridades neerlandesas finalmente están diciendo que no deberíamos tener que vivir en una inundación. Al prohibir las herramientas, estamos construyendo una presa.

Qué significa esto para empresas e individuos

Para las empresas tecnológicas y los desarrolladores, el mensaje es de transparencia y gestión proactiva de riesgos. Si su software utiliza IA generativa para manipular imágenes humanas, debe auditar sus funciones ahora. Esperar a una citación formal es una apuesta de alto riesgo que podría llevar a un fallo sistémico de su marca.

Para los individuos, este desarrollo es un paso empoderador hacia la recuperación de la autonomía digital. Indica que la ley finalmente se está poniendo al día con la sofisticada realidad del acoso impulsado por la IA. Mientras esperamos a que el Parlamento Europeo se pronuncie sobre la propuesta neerlandesa, hay pasos prácticos que puede tomar para proteger su huella digital.

  • Audite su presencia en línea: Utilice herramientas que preserven la privacidad para ver dónde están indexadas sus imágenes y considere restringir la configuración de privacidad en sus cuentas de redes sociales.
  • Revise los términos de servicio: Si utiliza generadores de imágenes por IA para el trabajo o como pasatiempo, lea la letra pequeña. Asegúrese de que la plataforma tenga políticas sólidas contra la generación de contenido no consentido.
  • Apoye la acción legislativa: Manténgase informado sobre el progreso de la Ley de IA de la UE y apoye las iniciativas que prioricen la dignidad humana sobre la ‘innovación’ tecnológica por sí misma.

En última instancia, la declaración conjunta neerlandesa es un recordatorio de que la privacidad no es solo una casilla de cumplimiento; es un derecho humano fundamental. Al tratar estas herramientas como los peligros digitales que son, podemos comenzar a construir un internet más seguro y respetuoso para todos.

Fuentes:

  • EU Artificial Intelligence Act (Regulation (EU) 2024/1689)
  • General Data Protection Regulation (GDPR), Article 6 (Lawfulness of processing) and Article 9 (Processing of special categories of personal data)
  • Joint Statement of the Dutch National Police and Public Prosecution Service (April 2026)
  • European Convention on Human Rights, Article 8 (Right to respect for private and family life)

Descargo de responsabilidad: Este artículo tiene fines informativos y periodísticos únicamente y no constituye asesoramiento legal formal. Si se enfrenta a un problema legal relacionado con la privacidad digital o la IA, consulte con un profesional legal calificado.

bg
bg
bg

Nos vemos en el otro lado.

Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.

/ Crear una cuenta gratuita