Przez większą część trzech lat ChatGPT firmy OpenAI był niekwestionowanym mistrzem wagi ciężkiej w świecie konsumenckiej sztucznej inteligencji. Jednak ostatnie dane sugerują, że nawet najbardziej dominujący giganci technologiczni nie są odporni na zmienność nastrojów społecznych. Po ogłoszeniu ważnego partnerstwa między OpenAI a Departamentem Obrony USA (DoD) — niedawno przemianowanym na Departament Wojny — aplikacja mobilna odnotowała oszałamiający, 295-procentowy wzrost liczby odinstalowań w ciągu jednego dnia.
Ten masowy exodus, który miał miejsce w sobotę 28 lutego, stanowi znaczący punkt zwrotny dla firmy. Choć OpenAI w przeszłości radziło sobie z kontrowersjami dotyczącymi pozyskiwania danych i praw autorskich, reakcja na bezpośrednie zaangażowanie w infrastrukturę wojskową reprezentuje nowy rodzaj tarcia: fundamentalny brak zgody między dostawcą usług a bazą użytkowników co do etycznych granic sztucznej inteligencji.
Według dostawcy danych rynkowych Sensor Tower, 295-procentowy skok liczby odinstalowań jest ekstremalnym wyjątkiem. Aby spojrzeć na to z odpowiedniej perspektywy: typowy dzienny wskaźnik odinstalowań ChatGPT oscylował wokół 9% w ciągu ostatniego miesiąca. Skok o prawie 300% sugeruje, że nie był to stopniowy odpływ niezainteresowanych użytkowników, ale skoordynowany lub spontaniczny protest znacznej części amerykańskiego społeczeństwa.
Podczas gdy liczba pobrań często trafia na nagłówki gazet, wskaźnik „odinstalowań” jest bardziej wymownym wskaźnikiem kondycji marki. Reprezentuje on aktywny wybór konsumenta, by usunąć narzędzie ze swojej przestrzeni osobistej. W tym przypadku dane sugerują, że dla setek tysięcy użytkowników użyteczność AI przestała przeważać nad dyskomfortem związanym z jej nowymi powiązaniami.
Katalizatorem tej zmiany było potwierdzenie szeroko zakrojonej umowy między OpenAI a Departamentem Wojny. W ramach rebrandingu DoD dokonanego przez administrację Trumpa, departament zajął bardziej zdecydowane stanowisko w sprawie integracji nowych technologii z aparatem obrony narodowej. Umowa rzekomo obejmuje integrację dużych modeli językowych (LLM) w planowanie strategiczne, operacje logistyczne i potencjalnie systemy wspomagania decyzji na polu bitwy.
Dla wielu użytkowników wydaje się to zdradą pierwotnego etosu OpenAI. Firma została pierwotnie założona z misją zapewnienia, że ogólna sztuczna inteligencja przyniesie korzyści całej ludzkości. Choć przejście z organizacji non-profit na podmiot o „ograniczonym zysku” było pierwszym pęknięciem w tym wizerunku, wejście w kontrakty wojskowe jest dla wielu ostatecznym zerwaniem. Przekształca to AI z kreatywnego asystenta czy partnera w kodowaniu w komponent konfliktu sponsorowanego przez państwo.
Aby zrozumieć, dlaczego użytkownicy naciskają przycisk usuwania, musimy przyjrzeć się koncepcji technologii „podwójnego zastosowania”. Podobnie jak GPS został opracowany dla wojska, zanim stał się niezbędny w nawigacji cywilnej, AI ma jasne zastosowania w obu światach. Jednak AI jest unikalna, ponieważ naśladuje ludzkie rozumowanie i podejmowanie decyzji.
Kiedy użytkownik wchodzi w interakcję z ChatGPT, istnieje pewien poziom postrzeganej intymności. Ludzie używają go do pisania osobistych listów, burzy mózgów nad pomysłami biznesowymi, a nawet szukania wsparcia w zakresie zdrowia psychicznego. Świadomość, że ten sam silnik jest dostrajany w celu optymalizacji uderzeń wojskowych lub gier wojennych, tworzy dysonans poznawczy, który dla wielu jest niemożliwy do pogodzenia. To cyfrowy odpowiednik odkrycia, że twój ulubiony bibliotekarz podjął drugą pracę jako ekspert ds. amunicji.
Moment gwałtownego wzrostu jest również powiązany z klimatem politycznym. Przywrócenie Departamentowi Obrony nazwy sprzed 1947 roku — „Departament Wojny” — było ruchem polaryzującym. Wiążąc się z departamentem pod tą konkretną nomenklaturą, OpenAI wkroczyło w napiętą atmosferę polityczną. Dla części populacji odinstalowanie aplikacji to nie tylko postawa etyczna wobec AI, ale także manifest polityczny przeciwko polityce obronnej obecnej administracji.
Strata OpenAI może być zyskiem konkurencji. W następstwie skoku z 28 lutego alternatywne platformy AI, takie jak Claude firmy Anthropic oraz zdecentralizowane modele open-source, odnotowały zauważalny wzrost zaangażowania. Anthropic w szczególności od dawna promuje się w oparciu o filary „Bezpieczeństwa AI” i „Konstytucyjnej AI”, pozycjonując się jako bardziej etyczna alternatywa dla agresywnego ekspansjonizmu OpenAI.
Jeśli ten trend się utrzyma, możemy być świadkami bałkanizacji rynku AI. Użytkownicy mogą zacząć wybierać narzędzia nie tylko na podstawie wydajności czy funkcji, ale także „kompasu moralnego” firmy macierzystej. Może to zmusić firmy technologiczne do znacznie większej przejrzystości w kwestii kontraktów rządowych i konkretnych sposobów wykorzystania ich modeli.
Jeśli rozważasz rezygnację z ChatGPT w świetle tych wydarzeń, oto jak możesz przeprowadzić tę zmianę:
Na ten moment OpenAI nie wydało formalnej odpowiedzi na dane Sensor Tower. To, czy jest to tymczasowe zjawisko, czy początek długofalowego spadku, dopiero się okaże, ale jedno jest pewne: era „neutralnej” AI dobiegła końca.



Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.
/ Utwórz bezpłatne konto