Principios de privacidad

El favorito de la privacidad en la IA acaba de pedir tu pasaporte

Anthropic ahora requiere identificación gubernamental para algunos usuarios de Claude. Explore por qué el líder de la IA centrado en la privacidad está girando hacia la verificación de identidad y qué significa.
El favorito de la privacidad en la IA acaba de pedir tu pasaporte

Durante el último año, se ha estado produciendo una migración silenciosa en el mundo de la inteligencia artificial. Mientras que ChatGPT de OpenAI sigue siendo el nombre más conocido, un grupo significativo de usuarios avanzados, desarrolladores y escritores preocupados por la privacidad prepararon sus maletas digitales y se mudaron a Claude de Anthropic. La narrativa era sencilla: OpenAI se estaba volviendo demasiado cercano a los intereses de vigilancia gubernamental —marcado por el nombramiento de un exdirector de la NSA en su junta directiva— mientras que Anthropic se mantenía como la alternativa basada en principios y centrada en la seguridad.

Pero la realidad de la industria tecnológica rara vez es tan binaria. Esta semana, esa narrativa se topó con un obstáculo importante. Anthropic actualizó silenciosamente sus protocolos para incluir el requisito de que algunos usuarios proporcionen una identificación con foto emitida por el gobierno y un selfie en vivo para continuar usando el servicio. Para una comunidad que se unió a Claude específicamente para escapar de la sensación de ser observada, la ironía es evidente. Esto plantea una pregunta fundamental sobre el futuro de internet: ¿Podremos tener alguna vez una utilidad de alto nivel sin renunciar a nuestro anonimato absoluto?

La gran migración se encuentra con la frontera digital

Para entender por qué este movimiento se siente como una traición para algunos, debemos observar la atmósfera que lo precedió. A mediados de 2024 y a lo largo de 2025, OpenAI enfrentó una serie de crisis de relaciones públicas con respecto al manejo de datos y su relación con las agencias federales. Esto creó un vacío que Anthropic estuvo encantado de llenar. Se comercializaron como los creadores de la "IA Constitucional", un sistema gobernado por un conjunto de principios éticos en lugar de solo patrones de datos brutos.

Para el usuario promedio, Claude se sentía como una versión más reflexiva y menos "corporativa" del futuro de la IA. Era el becario incansable que no solo hacía el trabajo, sino que parecía preocuparse por las reglas. Sin embargo, la fase de luna de miel del auge de la IA está terminando y la realidad regulatoria se está imponiendo. La nueva verificación de identidad de Anthropic no es un capricho aleatorio; es una respuesta a la presión sistémica de operar una herramienta que se utiliza cada vez más para tareas de alto riesgo.

Aunque parece un giro repentino, mirar el panorama general revela un escenario cambiante donde "confiar pero verificar" se está convirtiendo en el procedimiento operativo obligatorio para cualquier empresa que maneje cantidades masivas de potencia de cómputo.

Bajo el capó: Cómo funciona la verificación

En términos prácticos, Anthropic no está construyendo una base de datos gigante de pasaportes de forma interna. Al igual que muchas aplicaciones de tecnología financiera y servicios de coche compartido, están subcontratando el trabajo pesado a una plataforma de identidad de terceros llamada Persona. Cuando un usuario es marcado para verificación, se le pide que escanee su identificación y se tome un selfie de "vitalidad" para demostrar que no es un bot o un deepfake.

Detrás de la jerga de "integridad de la plataforma", hay tres razones principales por las que una empresa como Anthropic tomaría esta medida drástica:

  1. Prevención del mal uso del modelo: La IA puede usarse para generar correos electrónicos de phishing, escribir malware o coordinar campañas de desinformación. Al vincular una cuenta a un humano real, el "costo" de ser expulsado se vuelve mucho más alto.
  2. Racionamiento de recursos: Los modelos de IA de alta gama como Claude 3.5 Sonnet u Opus son increíblemente caros de ejecutar. Los actores malintencionados a menudo crean miles de cuentas "títere" para eludir los límites de uso. Una verificación de pasaporte es una herramienta eficaz, aunque contundente, para detener esto.
  3. Cumplimiento regulatorio: Los gobiernos buscan cada vez más aplicar leyes de "Conozca a su cliente" (KYC), similares a las de la banca, para las empresas de IA. Quieren asegurarse de que la tecnología potente no se exporte a regiones sancionadas ni sea utilizada por entidades prohibidas.

Curiosamente, Anthropic es el primer actor importante en hacer de esto una parte visible de la experiencia del consumidor. Aunque Google y Microsoft ya tienen grandes cantidades de datos sobre usted, aún no le han pedido que sostenga su licencia de conducir solo para chatear con su bot. El movimiento de Anthropic es transparente, pero para muchos, también es desconcertantemente invasivo.

El intercambio de privacidad: Una comparación

Desde el punto de vista del consumidor, la elección entre proveedores de IA ya no se trata solo de cuál escribe mejor poesía o código. Se trata de qué "impuesto" está dispuesto a pagar por el servicio.

Característica Anthropic (Claude) OpenAI (ChatGPT) Google (Gemini)
Fuente de datos principal Prompts proporcionados por el usuario Prompts proporcionados por el usuario Ecosistema integrado de Google
Verificación de identidad Identificación gubernamental/Selfie (para algunos) Correo electrónico/Número de teléfono Historial de la cuenta de Google
Exclusión de entrenamiento Disponible para usuarios Pro/Team Disponible en la configuración Disponible en la configuración
Intercambio con terceros Usa Persona para verificaciones de ID Compartido con socios de seguridad Intercambio de datos interno de Google

Esencialmente, estamos viendo una división en cómo se maneja la privacidad. Google y Microsoft ya saben quién es usted porque vive en sus ecosistemas. OpenAI lo conoce a través de su número de teléfono y método de pago. Anthropic, al carecer de esos datos históricos profundos, está eligiendo un método de verificación más robusto y "duro".

Por qué esto importa para el usuario cotidiano

Para la persona que usa Claude para resumir un PDF o ayudar a redactar un correo electrónico, esto puede parecer excesivo. Dicho de otra manera, es como si le pidieran una huella dactilar para entrar en una biblioteca pública. Sin embargo, el filtro de "¿Y qué?" sugiere que este es el comienzo de una tendencia más amplia.

A medida que los modelos de IA se vuelven más capaces de realizar acciones en el mundo real —como reservar vuelos, mover dinero o acceder a registros médicos— crecerá la necesidad de una "Prueba de humanidad". Si un agente de IA va a actuar en su nombre, el sistema debe estar 100% seguro de que es usted quien da las órdenes.

En el lado del mercado, este movimiento podría perjudicar el crecimiento de Anthropic a corto plazo. La naturaleza volátil de la confianza del usuario significa que incluso un pequeño punto de fricción como una verificación de identidad puede hacer que la gente corra hacia la competencia. Pero desde una perspectiva empresarial resiliente, es probable que Anthropic apueste a que ser la empresa "más cumplidora" los convierta en la opción preferida para grandes clientes corporativos y contratos gubernamentales a largo plazo.

Conclusión para su vida digital

En última instancia, los "temores de vigilancia" que llevaron a los usuarios a Claude no se han resuelto; simplemente han cambiado de forma. Hemos pasado de preocuparnos por el uso de nuestros datos para entrenar un cerebro, a preocuparnos por que nuestra identidad física esté vinculada a nuestras consultas digitales.

Si se le solicita que verifique su identidad, tiene una decisión que tomar. Anthropic afirma que estos datos no se utilizan para el entrenamiento y son gestionados por una empresa de seguridad especializada. Para muchos, la utilidad del "becario incansable" vale el intercambio. Para otros, el requisito es un paso excesivo.

Mirando el panorama general, debemos esperar que esto se convierta en el estándar de la industria. La era del asistente de IA anónimo y de alta potencia probablemente esté llegando a su fin. A medida que estas herramientas se conviertan en el petróleo digital de nuestra economía, los guardianes querrán ver alguna identificación antes de dejarnos bombear.

En lugar de ver esto como la traición de una sola empresa, obsérvelo como una señal de hacia dónde se dirige todo internet. Nos movemos hacia una "web verificada" donde sus acciones digitales están vinculadas a su ser físico. Si eso hace que el mundo sea más seguro o simplemente más restrictivo es una pregunta que estaremos respondiendo durante la próxima década. Por ahora, mantenga su pasaporte a mano: su IA podría necesitarlo.

Fuentes

  • Documentación oficial de soporte de Anthropic: Preguntas frecuentes sobre la verificación de identidad (abril de 2026).
  • Plataforma de verificación de identidad Persona: Informe sobre estándares de seguridad y cumplimiento.
  • Análisis de la industria: El impacto de KYC en los mercados de IA generativa (TechTrends Quarterly).
  • Estudio comparativo de privacidad: Políticas de retención de datos de los principales proveedores de LLM.
bg
bg
bg

Nos vemos en el otro lado.

Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.

/ Crear una cuenta gratuita