Durante el último año, se ha estado produciendo una migración silenciosa en el mundo de la inteligencia artificial. Mientras que ChatGPT de OpenAI sigue siendo el nombre más conocido, un grupo significativo de usuarios avanzados, desarrolladores y escritores preocupados por la privacidad prepararon sus maletas digitales y se mudaron a Claude de Anthropic. La narrativa era sencilla: OpenAI se estaba volviendo demasiado cercano a los intereses de vigilancia gubernamental —marcado por el nombramiento de un exdirector de la NSA en su junta directiva— mientras que Anthropic se mantenía como la alternativa basada en principios y centrada en la seguridad.
Pero la realidad de la industria tecnológica rara vez es tan binaria. Esta semana, esa narrativa se topó con un obstáculo importante. Anthropic actualizó silenciosamente sus protocolos para incluir el requisito de que algunos usuarios proporcionen una identificación con foto emitida por el gobierno y un selfie en vivo para continuar usando el servicio. Para una comunidad que se unió a Claude específicamente para escapar de la sensación de ser observada, la ironía es evidente. Esto plantea una pregunta fundamental sobre el futuro de internet: ¿Podremos tener alguna vez una utilidad de alto nivel sin renunciar a nuestro anonimato absoluto?
Para entender por qué este movimiento se siente como una traición para algunos, debemos observar la atmósfera que lo precedió. A mediados de 2024 y a lo largo de 2025, OpenAI enfrentó una serie de crisis de relaciones públicas con respecto al manejo de datos y su relación con las agencias federales. Esto creó un vacío que Anthropic estuvo encantado de llenar. Se comercializaron como los creadores de la "IA Constitucional", un sistema gobernado por un conjunto de principios éticos en lugar de solo patrones de datos brutos.
Para el usuario promedio, Claude se sentía como una versión más reflexiva y menos "corporativa" del futuro de la IA. Era el becario incansable que no solo hacía el trabajo, sino que parecía preocuparse por las reglas. Sin embargo, la fase de luna de miel del auge de la IA está terminando y la realidad regulatoria se está imponiendo. La nueva verificación de identidad de Anthropic no es un capricho aleatorio; es una respuesta a la presión sistémica de operar una herramienta que se utiliza cada vez más para tareas de alto riesgo.
Aunque parece un giro repentino, mirar el panorama general revela un escenario cambiante donde "confiar pero verificar" se está convirtiendo en el procedimiento operativo obligatorio para cualquier empresa que maneje cantidades masivas de potencia de cómputo.
En términos prácticos, Anthropic no está construyendo una base de datos gigante de pasaportes de forma interna. Al igual que muchas aplicaciones de tecnología financiera y servicios de coche compartido, están subcontratando el trabajo pesado a una plataforma de identidad de terceros llamada Persona. Cuando un usuario es marcado para verificación, se le pide que escanee su identificación y se tome un selfie de "vitalidad" para demostrar que no es un bot o un deepfake.
Detrás de la jerga de "integridad de la plataforma", hay tres razones principales por las que una empresa como Anthropic tomaría esta medida drástica:
Curiosamente, Anthropic es el primer actor importante en hacer de esto una parte visible de la experiencia del consumidor. Aunque Google y Microsoft ya tienen grandes cantidades de datos sobre usted, aún no le han pedido que sostenga su licencia de conducir solo para chatear con su bot. El movimiento de Anthropic es transparente, pero para muchos, también es desconcertantemente invasivo.
Desde el punto de vista del consumidor, la elección entre proveedores de IA ya no se trata solo de cuál escribe mejor poesía o código. Se trata de qué "impuesto" está dispuesto a pagar por el servicio.
| Característica | Anthropic (Claude) | OpenAI (ChatGPT) | Google (Gemini) |
|---|---|---|---|
| Fuente de datos principal | Prompts proporcionados por el usuario | Prompts proporcionados por el usuario | Ecosistema integrado de Google |
| Verificación de identidad | Identificación gubernamental/Selfie (para algunos) | Correo electrónico/Número de teléfono | Historial de la cuenta de Google |
| Exclusión de entrenamiento | Disponible para usuarios Pro/Team | Disponible en la configuración | Disponible en la configuración |
| Intercambio con terceros | Usa Persona para verificaciones de ID | Compartido con socios de seguridad | Intercambio de datos interno de Google |
Esencialmente, estamos viendo una división en cómo se maneja la privacidad. Google y Microsoft ya saben quién es usted porque vive en sus ecosistemas. OpenAI lo conoce a través de su número de teléfono y método de pago. Anthropic, al carecer de esos datos históricos profundos, está eligiendo un método de verificación más robusto y "duro".
Para la persona que usa Claude para resumir un PDF o ayudar a redactar un correo electrónico, esto puede parecer excesivo. Dicho de otra manera, es como si le pidieran una huella dactilar para entrar en una biblioteca pública. Sin embargo, el filtro de "¿Y qué?" sugiere que este es el comienzo de una tendencia más amplia.
A medida que los modelos de IA se vuelven más capaces de realizar acciones en el mundo real —como reservar vuelos, mover dinero o acceder a registros médicos— crecerá la necesidad de una "Prueba de humanidad". Si un agente de IA va a actuar en su nombre, el sistema debe estar 100% seguro de que es usted quien da las órdenes.
En el lado del mercado, este movimiento podría perjudicar el crecimiento de Anthropic a corto plazo. La naturaleza volátil de la confianza del usuario significa que incluso un pequeño punto de fricción como una verificación de identidad puede hacer que la gente corra hacia la competencia. Pero desde una perspectiva empresarial resiliente, es probable que Anthropic apueste a que ser la empresa "más cumplidora" los convierta en la opción preferida para grandes clientes corporativos y contratos gubernamentales a largo plazo.
En última instancia, los "temores de vigilancia" que llevaron a los usuarios a Claude no se han resuelto; simplemente han cambiado de forma. Hemos pasado de preocuparnos por el uso de nuestros datos para entrenar un cerebro, a preocuparnos por que nuestra identidad física esté vinculada a nuestras consultas digitales.
Si se le solicita que verifique su identidad, tiene una decisión que tomar. Anthropic afirma que estos datos no se utilizan para el entrenamiento y son gestionados por una empresa de seguridad especializada. Para muchos, la utilidad del "becario incansable" vale el intercambio. Para otros, el requisito es un paso excesivo.
Mirando el panorama general, debemos esperar que esto se convierta en el estándar de la industria. La era del asistente de IA anónimo y de alta potencia probablemente esté llegando a su fin. A medida que estas herramientas se conviertan en el petróleo digital de nuestra economía, los guardianes querrán ver alguna identificación antes de dejarnos bombear.
En lugar de ver esto como la traición de una sola empresa, obsérvelo como una señal de hacia dónde se dirige todo internet. Nos movemos hacia una "web verificada" donde sus acciones digitales están vinculadas a su ser físico. Si eso hace que el mundo sea más seguro o simplemente más restrictivo es una pregunta que estaremos respondiendo durante la próxima década. Por ahora, mantenga su pasaporte a mano: su IA podría necesitarlo.



Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.
/ Crear una cuenta gratuita