Przez ostatni rok w świecie sztucznej inteligencji trwała cicha migracja. Podczas gdy ChatGPT od OpenAI pozostaje powszechnie znaną marką, znaczna grupa zaawansowanych użytkowników, programistów i pisarzy dbających o prywatność spakowała swoje cyfrowe bagaże i przeniosła się do Claude’a od Anthropic. Narracja była prosta: OpenAI stawało się zbyt bliskie interesom rządowego nadzoru — co podkreśliło powołanie byłego dyrektora NSA do zarządu — podczas gdy Anthropic pozostawało pryncypialną alternatywą, stawiającą bezpieczeństwo na pierwszym miejscu.
Jednak rzeczywistość branży technologicznej rzadko jest tak binarna. W tym tygodniu ta narracja napotkała znaczący opór. Anthropic po cichu zaktualizował swoje protokoły, wprowadzając wymóg, aby niektórzy użytkownicy przedstawili wydany przez państwo dokument tożsamości ze zdjęciem oraz wykonali selfie „na żywo”, aby móc dalej korzystać z usługi. Dla społeczności, która dołączyła do Claude’a właśnie po to, by uciec przed poczuciem bycia obserwowanym, ironia jest uderzająca. Rodzi to fundamentalne pytanie o przyszłość internetu: czy kiedykolwiek możemy liczyć na wysoką użyteczność bez rezygnacji z absolutnej anonimowości?
Aby zrozumieć, dlaczego ten krok wydaje się niektórym taką zdradą, musimy przyjrzeć się atmosferze, która go poprzedziła. W połowie 2024 roku i przez cały rok 2025 OpenAI mierzyło się z serią kryzysów wizerunkowych dotyczących obchodzenia się z danymi i relacji z agencjami federalnymi. Stworzyło to próżnię, którą Anthropic chętnie wypełnił. Firma promowała się jako twórcy „Konstytucyjnej AI” (Constitutional AI), systemu zarządzanego przez zestaw zasad etycznych, a nie tylko surowe wzorce danych.
Dla przeciętnego użytkownika Claude wydawał się bardziej przemyślaną, mniej „korporacyjną” wersją przyszłości AI. Był jak niestrudzony stażysta, który nie tylko wykonywał pracę, ale zdawał się dbać o zasady. Jednak faza miodowego miesiąca w boomie AI dobiega końca, a rzeczywistość regulacyjna daje o sobie znać. Nowa weryfikacja tożsamości w Anthropic nie jest przypadkowym kaprysem; to odpowiedź na systemową presję związaną z obsługą narzędzia, które coraz częściej jest wykorzystywane do zadań o wysoką stawkę.
Choć wydaje się to nagłym zwrotem, spojrzenie na szerszy obraz ujawnia zmieniający się krajobraz, w którym zasada „ufaj, ale sprawdzaj” staje się obowiązkową procedurą operacyjną dla każdej firmy dysponującej ogromną mocą obliczeniową.
W praktyce Anthropic nie buduje wewnętrznej, gigantycznej bazy danych paszportów. Podobnie jak wiele aplikacji fintech i usług car-sharingowych, zlecają oni to trudne zadanie zewnętrznej platformie tożsamości o nazwie Persona. Gdy użytkownik zostanie wytypowany do weryfikacji, proszony jest o zeskanowanie dokumentu tożsamości i zrobienie selfie „liveness”, aby udowodnić, że nie jest botem ani deepfake’iem.
Za żargonem o „integralności platformy” kryją się trzy główne powody, dla których firma taka jak Anthropic decyduje się na ten drastyczny krok:
Co ciekawe, Anthropic jest pierwszym dużym graczem, który uczynił to widoczną częścią doświadczenia konsumenckiego. Choć Google i Microsoft mają już o Tobie ogromne ilości danych, nie poprosiły Cię jeszcze o pokazanie prawa jazdy tylko po to, by porozmawiać z ich botem. Ruch Anthropic jest transparentny, ale dla wielu osób również rażąco inwazyjny.
Z punktu widoku konsumenta wybór między dostawcami AI nie dotyczy już tylko tego, kto lepiej pisze poezję lub kod. Chodzi o to, jaki „podatek” jesteś gotów zapłacić za tę usługę.
| Funkcja | Anthropic (Claude) | OpenAI (ChatGPT) | Google (Gemini) |
|---|---|---|---|
| Główne źródło danych | Prompty użytkownika | Prompty użytkownika | Zintegrowany ekosystem Google |
| Weryfikacja tożsamości | Dokument ID/Selfie (dla niektórych) | E-mail/Numer telefonu | Historia konta Google |
| Rezygnacja z trenowania | Dostępna dla użytkowników Pro/Team | Dostępna w ustawieniach | Dostępna w ustawieniach |
| Udostępnianie stronom trzecim | Używa Persona do weryfikacji ID | Udostępniane partnerom ds. bezpieczeństwa | Wewnętrzne udostępnianie danych Google |
Zasadniczo widzimy podział w sposobie traktowania prywatności. Google i Microsoft już wiedzą, kim jesteś, ponieważ żyjesz w ich ekosystemach. OpenAI zna Cię poprzez numer telefonu i metodę płatności. Anthropic, nie posiadając tak głębokich danych historycznych, wybiera bardziej solidną, „twardą” metodę weryfikacji.
Dla osoby używającej Claude’a do streszczenia pliku PDF lub pomocy w redagowaniu e-maila, może to wyglądać na przesadę. Innymi słowy, to jak prośba o odcisk palca przy wejściu do biblioteki publicznej. Jednak głębsza analiza sugeruje, że jest to początek szerszego trendu.
W miarę jak modele AI stają się coraz bardziej zdolne do wykonywania działań w świecie rzeczywistym — takich jak rezerwacja lotów, przesyłanie pieniędzy czy dostęp do dokumentacji medycznej — potrzeba „Dowodu człowieczeństwa” (Proof of Personhood) będzie rosła. Jeśli agent AI ma działać w Twoim imieniu, system musi mieć 100% pewności, że to faktycznie Ty wydajesz polecenia.
Z perspektywy rynkowej ten krok może w krótkim terminie zaszkodzić wzrostowi Anthropic. Zmienna natura zaufania użytkowników oznacza, że nawet mały punkt oporu, taki jak weryfikacja ID, może skłonić ludzi do ucieczki do konkurencji. Jednak z perspektywy odpornego biznesu Anthropic prawdopodobnie stawia na to, że bycie firmą „najbardziej zgodną z przepisami” sprawi, że w dłuższej perspektywie staną się preferowanym wyborem dla wielkich klientów korporacyjnych i kontraktów rządowych.
Ostatecznie „obawy przed inwigilacją”, które przygnały użytkowników do Claude’a, nie zostały rozwiązane; po prostu zmieniły formę. Przeszliśmy od martwienia się o to, czy nasze dane są używane do trenowania mózgu maszyny, do martwienia się o to, czy nasza fizyczna tożsamość jest powiązana z naszymi cyfrowymi zapytaniami.
Jeśli zostaniesz poproszony o zweryfikowanie tożsamości, masz wybór. Anthropic twierdzi, że dane te nie są wykorzystywane do trenowania i są obsługiwane przez wyspecjalizowaną firmę zajmującą się bezpieczeństwem. Dla wielu użyteczność „niestrudzonego stażysty” jest warta tego kompromisu. Dla innych ten wymóg to krok za daleko.
Patrząc na szerszy obraz, powinniśmy oczekiwać, że stanie się to standardem branżowym. Era anonimowego, potężnego asystenta AI prawdopodobnie dobiega końca. Ponieważ narzędzia te stają się cyfrową ropą naftową naszej gospodarki, strażnicy będą chcieli zobaczyć dowód tożsamości, zanim pozwolą nam go zatankować.
Zamiast postrzegać to jako zdradę jednej firmy, potraktuj to jako sygnał tego, dokąd zmierza cały internet. Zmierzamy w stronę „zweryfikowanej sieci”, w której Twoje cyfrowe działania są powiązane z Twoim fizycznym „ja”. Czy to uczyni świat bezpieczniejszym, czy tylko bardziej restrykcyjnym — na to pytanie będziemy odpowiadać przez następną dekadę. Na razie miej paszport pod ręką — Twoja AI może go potrzebować.



Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.
/ Utwórz bezpłatne konto