En nuestra vida cotidiana, tenemos un cierto nivel básico de confianza. Si un bibliotecario le entrega un libro de historia, usted asume que las fechas son correctas. Si un médico le da una receta, confía en que no es una obra creativa de ficción. Pero en la era digital, hemos empezado a confiar nuestras consultas a la inteligencia artificial: herramientas que a menudo parecen oráculos omniscientes, pero que ocasionalmente se comportan más como un narrador de historias seguro de sí mismo que ha olvidado la trama.
Bajo el derecho contractual y los marcos de protección al consumidor, esta brecha entre la expectativa y la realidad es más que un simple fallo tecnológico; es un campo de minas legal. Esta es precisamente la razón por la cual la Autoridad Garante de la Competencia y del Mercado de Italia (AGCM) concluyó recientemente tres investigaciones de alto perfil sobre DeepSeek, Mistral y NOVA AI. ¿El problema central? El fenómeno conocido como "alucinaciones": esos momentos en los que una IA afirma una falsedad con la confianza inquebrantable de un abogado litigante experimentado.
Para entender este caso, primero tenemos que mirar a la AGCM. Piense en este regulador como el escudo de un consumidor en un mercado donde los gigantes suelen tener todas las cartas. No están ahí para sofocar la innovación, sino para garantizar que el "puente" entre las promesas de una empresa y la experiencia de un usuario no tenga una trampilla en el medio.
Las investigaciones se centraron en si estas empresas de IA estaban siendo lo suficientemente transparentes con los ciudadanos italianos. Cuando una IA genera una cita legal falsa o un hecho médico inexistente, ¿quién es responsable? Si la empresa no le ha advertido que el software puede inventar cosas, podría estar incurriendo en lo que la ley llama una "práctica comercial desleal". Esto no es solo un tirón de orejas; en un contexto regulatorio, no informar a los usuarios sobre los defectos fundamentales de un producto puede hacer que todo el modelo de servicio de una empresa sea legalmente precario.
A los ojos de la ley, una alucinación no es solo una peculiaridad del aprendizaje automático; es un incumplimiento potencial del deber de diligencia. Para la persona promedio que utiliza estas herramientas para el trabajo o el estudio, una respuesta falsa no es solo molesta: puede ser procesable si conduce a un daño en el mundo real.
En lugar de librar una batalla prolongada en los tribunales, que puede ser un maratón de litigios, DeepSeek, Mistral y NOVA AI eligieron un camino diferente: ofrecieron compromisos vinculantes. Se trata esencialmente de promesas formales hechas al regulador para cambiar su comportamiento a cambio de que la investigación se cierre sin una multa. Es una especie de tratado de paz, pero con dientes. Si estas empresas rompen estas promesas, se enfrentan a sanciones legales masivas.
¿Qué significa esto para usted cuando inicie sesión en estas plataformas mañana? La AGCM ha obtenido varias concesiones que priorizan al usuario vulnerable sobre el lenguaje corporativo estándar.
| Característica | Realidad anterior | Nuevo estándar regulatorio |
|---|---|---|
| Transparencia | Enterrada en "letra pequeña" solo en inglés | Advertencias claras y destacadas en italiano |
| Verificación | Asumida por el usuario en silencio | Establecida explícitamente como una necesidad para la fiabilidad |
| Divulgación de riesgos | Vaga o inexistente | Claramente definida como un riesgo de "alucinación" |
| Postura de la empresa | "Úselo bajo su propio riesgo" | Inversión activa en mitigación tecnológica |
Curiosamente, la AGCM no solo pidió mejores etiquetas en la caja. Miraron bajo el capó. El compromiso de DeepSeek con la inversión tecnológica es particularmente notable. Sugiere que en el futuro, simplemente decir "lo siento, solo somos una IA" no será una red de seguridad suficiente. Los reguladores están empezando a exigir que las empresas trabajen activamente para reducir la frecuencia de estos errores, tratándolos como un defecto del producto en lugar de un misterio inevitable.
Esto sienta un precedente poderoso. Le dice al mundo tecnológico que si lanza una herramienta en el mercado europeo —y específicamente en la jurisdicción italiana— usted es responsable de la "seguridad intelectual" de sus usuarios. Si su producto tiene el potencial de proporcionar consejos negligentes, no solo debe advertir al usuario, sino también demostrar que está tratando de solucionar el problema.
Como su Navegador Legal, a menudo veo casos en los que las personas se quedan desamparadas porque confiaron en el marketing de una empresa por encima de la realidad del servicio. Ya sea usted un estudiante que escribe un ensayo o el dueño de una pequeña empresa que redacta un contrato, estos fallos de la AGCM son una victoria para usted.
Cambian la carga de la prueba. Al obligar a estas empresas a ser transparentes, la ley les dificulta esconderse tras excusas de "es una versión beta". Si una empresa no muestra estas advertencias obligatorias y usted sufre una pérdida debido a una alucinación, su posición legal para buscar reparación se vuelve mucho más sólida. Puede señalar estos compromisos y decir: "Conocían el riesgo y no me advirtieron como exigía el regulador".
Incluso con estas nuevas reglas, el plazo de prescripción de su propio sentido común nunca expira. Aquí le explicamos cómo puede protegerse mientras la tecnología se pone al día con la ley:
En última instancia, la decisión de la AGCM es un recordatorio de que la ley no es una reliquia estática; es un organismo vivo que se adapta a los nuevos desafíos. Al descorrer el velo sobre las alucinaciones de la IA, las autoridades italianas han garantizado que, si bien la tecnología puede ser artificial, las protecciones legales para las personas que la utilizan sigan siendo muy reales.
Fuentes:
Descargo de responsabilidad: Este artículo tiene fines informativos y educativos únicamente y no constituye asesoramiento legal formal. Las regulaciones de IA son un campo en rápida evolución; si cree que ha sido perjudicado por información engañosa de un servicio de IA, consulte a un abogado calificado en su jurisdicción para discutir los detalles de su caso.



Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.
/ Crear una cuenta gratuita