Una reciente decisión del Tribunal de Revisión Administrativa (ART), que dio luz verde al minorista de artículos para el hogar más grande de Australia, Bunnings, para reanudar el uso de tecnología de reconocimiento facial (TRF) de alto impacto en sus clientes, es más que un fallo legal técnico. Es un golpe material y estructural al derecho fundamental a la privacidad en la era digital. La decisión, que anuló la conclusión del Comisionado de Privacidad sobre el uso ilegal, esencialmente confirma una laguna crítica: que el interés comercial de una empresa en combatir el crimen puede considerarse una 'situación general permitida' que anula la necesidad de consentimiento explícito del cliente para la recopilación de datos biométricos sensibles.
Este resultado proporciona una clara ilustración de cómo las anticuadas leyes de privacidad de Australia —originadas en 1988— son completamente inadecuadas para gobernar un mundo saturado de Inteligencia Artificial intrusiva y en tiempo real. Sin un reinicio legislativo fundamental, todo australiano que ingrese a una tienda minorista, transite por un espacio público o utilice un servicio gubernamental corre el riesgo de convertirse en un participante inconsciente en un experimento nacional de IA en tiempo real.
En 2024, la Oficina del Comisionado de Información de Australia (OAIC) descubrió que Bunnings había incumplido múltiples Principios de Privacidad Australianos (APPs) al implementar la TRF en 62 tiendas entre 2019 y 2021. El hallazgo principal fue que el minorista recopiló información biométrica sensible de los clientes sin consentimiento (un incumplimiento del APP 3.3).
El Tribunal de Revisión Administrativa anuló parcialmente este hallazgo central en febrero de 2026. Si bien el tribunal estuvo de acuerdo en que Bunnings incumplió los principios relacionados con la transparencia, la notificación y la no realización de una evaluación de riesgos adecuada (APPs 1 y 5), determinó de manera crucial que la recopilación de datos biométricos estaba justificada. El ART dictaminó que el uso caía bajo una excepción: una 'situación general permitida' (específicamente, la necesidad de combatir el crimen minorista grave y proteger al personal de la violencia).
Este es el punto de inflexión. El fallo valida tácitamente la noción de que la evaluación que hace una organización de sus propios riesgos de seguridad es suficiente para eludir la alta exigencia del consentimiento del cliente para los datos biométricos sensibles. El uso de TRF —una tecnología indiscriminada que captura la huella facial de cada cliente, no solo de los presuntos delincuentes— se consideró una respuesta proporcionada. Esto reduce efectivamente la barrera regulatoria para una serie de aplicaciones de IA en el comercio minorista y la vida pública.
La Ley de Privacidad de 1988 fue diseñada para un mundo analógico y basado en papel. Si bien el gobierno australiano ha estado buscando reformas —especialmente a través de la Ley de Enmienda de Privacidad y Otras Legislaciones de 2024, que introdujo nuevas facultades de aplicación de la OAIC y una eventual causa de acción legal por invasiones graves de la privacidad— el ritmo es glacial en comparación con la hipervelocidad de la adopción de la IA.
El caso Bunnings muestra la fragilidad del marco legal actual frente a la IA que puede procesar y descartar datos en milisegundos. Si bien las reformas exigen que las empresas divulguen eventualmente el uso de la toma de decisiones automatizada en sus políticas de privacidad (entrando en vigor en diciembre de 2026), el fallo del ART demostró que, en la práctica, se puede utilizar ahora mismo una amplia excepción de seguridad para justificar la recopilación de datos más intrusiva sin aprobación previa.
Más allá del comercio minorista, este clima legal fomenta la expansión de la IA de alto impacto en la vida cotidiana, convirtiendo a los ciudadanos australianos en sujetos de una red de vigilancia en constante expansión y sin control.
Cuando una decisión importante de un tribunal afirma que la recopilación de datos más intrusiva puede proceder simplemente citando una 'situación general permitida', proporciona una peligrosa luz verde para que las corporaciones aumenten la captura de nuestra información biométrica y de comportamiento, haciendo del consentimiento una restricción opcional.
Una pequeña pero crucial victoria para la privacidad surgió de la decisión del ART. El Tribunal afirmó la postura de la OAIC de que la captura fugaz de datos faciales, de un milisegundo de duración, por parte del sistema TRF, aún constituye una 'recopilación' formal bajo la Ley de Privacidad.
Esta interpretación legal es una victoria porque significa que el procesamiento de datos en tiempo real —el motor de la IA moderna— no puede simplemente evadir la regulación alegando que los datos solo se retuvieron por un momento. Este principio tiene profundas implicaciones para la tecnología publicitaria (ad-tech), la verificación algorítmica y cualquier sistema que procese momentáneamente información biométrica o de identificación personal. Sin embargo, sin una regla sólida basada en el consentimiento, este gancho legal por sí solo no es suficiente para detener la marea de vigilancia; simplemente significa que la vigilancia debe documentarse correctamente.
A medida que la reforma regulatoria se retrasa y se explotan las lagunas legales, la responsabilidad recae en los consumidores, la industria y los defensores para impulsar un cambio inmediato. Necesitamos un marco legislativo con líneas rojas, no solo listas de verificación de cumplimiento.
Un llamado a la acción para consumidores e industria:
| Área de acción | Paso práctico | Por qué es importante después del fallo de Bunnings |
|---|---|---|
| Exigir claridad | Busque y lea siempre la señalización y la política de privacidad. Si se menciona la TRF, solicite a un gerente de la tienda por escrito detalles sobre la retención de datos y quién tiene acceso. | El ART confirmó el incumplimiento en materia de transparencia y notificación. La industria mejorará la señalización solo si los consumidores lo exigen. |
| Presionar por políticas | Apoye a los grupos de defensa que solicitan la plena implementación de las recomendaciones de la Revisión de la Ley de Privacidad, especialmente el Agravio Legal por Invasión Grave de la Privacidad. | Esto otorga a las personas un recurso legal directo contra las prácticas intrusivas de IA, sin tener que depender únicamente de la OAIC. |
| Ejercer los APPs | Solicite formalmente una copia de sus datos personales recopilados (incluidos escaneos biométricos o conjuntos de vectores) a los minoristas según los principios de acceso de la Ley de Privacidad. | Esto obliga a las empresas a auditar y divulgar completamente qué datos tienen sobre usted, incluso si la recopilación fue 'momentánea'. |
| Analizar el uso de la IA | Cuando un minorista afirma que el uso de IA es por 'seguridad' o 'eficiencia', considere la proporcionalidad. ¿Detener los robos justifica la recopilación del perfil biométrico de cada cliente? | La proporcionalidad fue la cuestión central en el fallo del ART. La presión comunitaria puede obligar a que la balanza se incline nuevamente hacia la privacidad. |
La era de un enfoque regulatorio de 'toque ligero' hacia la IA ha terminado. La decisión de Bunnings confirma que las leyes actuales de Australia son una característica, no un error, de este ciclo distópico de automatización. Es hora de tratar los datos biométricos como el derecho humano fundamental que son y legislar en consecuencia, antes de que el experimento esté completo y el estado de vigilancia sea una realidad irreversible.



Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.
/ Crear una cuenta gratuita