Warto przeczytać

Klinika widmo za 1,8 miliarda dolarów: Wewnątrz problemu Medvi z lekarzami wygenerowanymi przez AI

Medvi, startup telemedyczny z prognozowaną sprzedażą na poziomie 1,8 mld USD, mierzy się z krytyką z powodu lekarzy wygenerowanych przez AI w swoich reklamach. Czy to innowacja, czy kryzys zaufania?
Klinika widmo za 1,8 miliarda dolarów: Wewnątrz problemu Medvi z lekarzami wygenerowanymi przez AI

Iluzja skali w cyfrowym zdrowiu

Czy powierzyłbyś swoje długoterminowe zdrowie lekarzowi, który nie istnieje, lub specjaliście medycznemu, którego zdjęcie profilowe zostało wygenerowane przez prompt, a nie przez akademię medyczną? To nie jest hipotetyczne pytanie z dystopijnej powieści; to centralny punkt napięcia wokół Medvi, startupu telemedycznego opartego na sztucznej inteligencji, który niedawno przebił się do świadomości publicznej. Zatrudniając zaledwie dwóch pełnoetatowych pracowników, firma rzekomo wygenerowała w zeszłym roku obrót w wysokości 401 milionów dolarów, a obecnie prognozuje oszałamiające 1,8 miliarda dolarów sprzedaży na rok 2026.

Na papierze Medvi reprezentuje siłę destrukcyjną w krajobrazie farmaceutycznym, wykorzystując oszczędny, zautomatyzowany model do dystrybucji leków na odchudzanie i kuracji poprawiających wydajność. Niemniej jednak głębsze spojrzenie pod maskę ujawnia niepewne fundamenty zbudowane na sieci marketerów afiliacyjnych i personach wygenerowanych przez AI, które rzucają wyzwanie naszym fundamentalnym definicjom zaufania medycznego.

Dziki Zachód marketingu afiliacyjnego

W praktyce gwałtowny wzrost Medvi nie był napędzany wyłącznie przez tradycyjne budowanie marki. Zamiast tego firma w dużej mierze polega na wieloaspektowej sieci partnerów afiliacyjnych. Założyciel Matthew Gallagher zauważył, że około 30% reklam firmy przepływa przez tych zewnętrznych partnerów. Choć marketing afiliacyjny jest standardowym narzędziem skalowania produktów cyfrowych, w kontekście opieki zdrowotnej często przypomina on Dziki Zachód.

Niedawne dochodzenie w bibliotece reklam Meta ujawniło serię wyrafinowanych, a zarazem zwodniczych kampanii. Reklamy te przedstawiały osoby prezentowane jako lekarze medycyny, tacy jak „dr Matthew Anderson MD” i „dr Spencer Langford MD”. Co ciekawe, profile te często były cyfrowymi duchami. Jedno z kont zawierało numer telefonu z Angoli i należało wcześniej do muzyka gospel; inne było powiązane ze sklepem odzieżowym w Republice Konga.

Innymi słowy, „lekarze” zalecający Twoją następną receptę mogą w rzeczywistości być przetworzonymi cyfrowymi szczątkami nieistniejącego już konta w mediach społecznościowych, ubranymi w wygenerowany przez AI biały fartuch. Reklamy te często zawierały charakterystyczne znaki ich syntetycznego pochodzenia, w tym bełkotliwy tekst i nieścisłości anatomiczne typowe dla wczesnych etapów generowania obrazów przez AI. Niektóre posiadały nawet widoczne znaki wodne z Gemini AI od Google, co sugeruje poziom nadzoru, który był w najlepszym razie niedbały.

Dlaczego integralność danych ma dla mnie znaczenie

Jako osoba, która spędziła lata zanurzona w świecie biohackingu i MedTech, uważam te rewelacje za szczególnie niepokojące. Moje wykształcenie akademickie nauczyło mnie priorytetyzować źródła pierwotne i surowe dane nad dopracowaną fasadą komunikatów prasowych startupu. Nie wierzę firmie na słowo; czytam leżące u podstaw artykuły naukowe i wyniki badań klinicznych.

W życiu osobistym traktuję swoje ciało jak laboratorium. Przez miesiące nosiłem systemy ciągłego monitorowania glikemii (CGM), aby zrozumieć moją reakcję metaboliczną na stres, i testowałem interfejsy neuronowe zaprojektowane w celu wyostrzenia koncentracji. Dla mnie technologia powinna być ekosystemem, który przedłuża aktywne ludzkie życie, a nie czarną skrzynką, która przesłania prawdę. Kiedy pozwalamy AI halucynować ekspertów, na których polegamy w kwestii porad medycznych, nie patrzymy tylko na błąd marketingowy; jesteśmy świadkami załamania systemu odpornościowego publicznego zaufania.

Anatomia syntetycznego lekarza

Jeden konkretny przypadek podkreślił niestabilną naturę tych kampanii. Marketer posługujący się nazwiskiem „Wade Frazer MD” szybko porzucił tytuł medyczny, gdy dziennikarze zaczęli zadawać pytania. Co dziwne, to samo zdjęcie profilowe odkryto na trzech innych, odrębnych stronach, z których wszystkie reklamowały produkty Medvi. Sugeruje to skalowalne, zautomatyzowane podejście do oszustwa, w którym „lekarze” są traktowani jako zasoby wymienne – jak serwery w modelu „cattle, not pets”.

Z tego powodu liczba reklam ulega gwałtownym wahaniom. Gdy światło reflektorów skierowano na te profile wygenerowane przez AI, liczba aktywnych kampanii reklamowych związanych z Medvi na platformach Meta spadła z ponad 5 000 do około 2 800 w ciągu jednego weekendu. To szybkie wycofanie wskazuje, że choć firma twierdzi, iż posiada solidną politykę dotyczącą ujawniania AI, egzekwowanie tych zasad było reaktywne, a nie proaktywne.

Tarcia regulacyjne i FTC

Gallagher stwierdził, że Medvi utrzymuje jasną politykę zgodną z wytycznymi Federalnej Komisji Handlu (FTC), wymagającą ujawnienia każdego przypadku przedstawienia lekarza przez AI. W jego opinii odpowiedzialność spoczywa na partnerach afiliacyjnych. Jednak gdy wycena firmy jest budowana na plecach tak innowacyjnych, a jednocześnie problematycznych taktyk marketingowych, granica między nadzorem korporacyjnym a błędem partnera ulega zatarciu.

W zasadzie Medvi działa w skali, która wyprzedza jej wewnętrzne zasoby ludzkie. Przy zaledwie dwóch pracownikach zarządzających strumieniem przychodów idącym w miliardy dolarów, poleganie na zautomatyzowanych systemach i podmiotach zewnętrznych jest koniecznością, ale jest to również słaby punkt. FTC historycznie krytycznie odnosiła się do zwodniczych twierdzeń zdrowotnych, a używanie syntetycznych osób do sprzedaży substancji regulowanych, takich jak leki na odchudzanie, mogłoby wywołać przełomową reakcję regulacyjną.

Praktyczne wskazówki dla cyfrowego pacjenta

W erze, w której AI może w kilka sekund wygenerować przekonującego specjalistę medycznego, ciężar weryfikacji przesunął się na konsumenta. Jeśli rozważasz skorzystanie z usług telemedycznych, pamiętaj o tej liście kontrolnej, aby nie dać się nabrać na cyfrową halucynację:

  • Weryfikuj kwalifikacje: Nie przyjmuj tytułu „MD” za pewnik. Sprawdź w oficjalnych rejestrach izb lekarskich, czy lekarz posiada licencję w Twoim regionie.
  • Szukaj artefaktów AI: Przyjrzyj się zdjęciom profilowym pod kątem nieścisłości. Spójrz na tło, dłonie i wszelki tekst wewnątrz obrazu. Jeśli wygląda jak z marzenia sennego, prawdopodobnie nim jest.
  • Sprawdź historię: Kliknij w sekcję „Informacje” na stronach w mediach społecznościowych. Jeśli strona lekarza sześć miesięcy temu była fanklubem muzyki gospel lub kongijskim sklepem detalicznym, zachowaj szczególną ostrożność.
  • Wymagaj przejrzystości: Korzystaj z platform, które jasno określają swoje relacje z dostawcami i zapewniają bezpośredni dostęp do licencji medycznych oraz danych kontaktowych.

Podsumowanie: Technologia jako narzędzie, a nie maska

Technologia jest najlepsza wtedy, gdy działa jako most, łącząc pacjentów z opieką, która wcześniej była niedostępna. Jednak gdy AI jest używana do fabrykowania autorytetu zamiast go ułatwiać, innowacyjny potencjał telemedycyny zostaje zaprzepaszczony. Musimy wymagać, aby firmy MedTech traktowały swoją cyfrową obecność z taką samą rygorystycznością, jaką stosują wobec swoich łańcuchów dostaw farmaceutycznych.

W miarę jak zmierzamy ku przyszłości coraz bardziej zaawansowanej sztucznej inteligencji, musimy pamiętać, że celem jest poprawa ludzkiego zdrowia, a nie tylko optymalizacja lejka sprzedażowego. Jeśli napotkasz reklamy medyczne, które wydają się podejrzane lub przedstawiają specjalistów wygenerowanych przez AI bez stosownej informacji, zgłoś je platformie i FTC. Nasze zbiorowe zdrowie zależy od cyfrowego ekosystemu zakorzenionego w rzeczywistości, a nie takiego zaludnionego przez duchy.

Źródła:

  • The New York Times: Profile on Medvi and Matthew Gallagher.
  • Business Insider: Investigation into Medvi affiliate marketing and Meta ad library.
  • Meta Ad Library: Transparency data regarding Medvi campaigns.
  • Federal Trade Commission (FTC): Guidelines on AI disclosures and deceptive advertising.
bg
bg
bg

Do zobaczenia po drugiej stronie.

Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.

/ Utwórz bezpłatne konto