Każdego tygodnia ponad 230 milionów ludzi zwraca się do ChatGPT po odpowiedzi. Pytają o wszystko – od błędów w kodowaniu po przepisy na kolację, ale coraz częściej pytają o swoje zdrowie. Według OpenAI użytkownicy sprawdzają, czy jedzenie jest bezpieczne do spożycia, zarządzają przewlekłymi alergiami lub szukają sposobów na zwalczenie uporczywego przeziębienia.
Jednak nowe badanie opublikowane w czasopiśmie Nature sugeruje, że choć ChatGPT jest świetnym rozmówcą, jest niebezpiecznie niekonsekwentną pielęgniarką dokonującą triażu. Naukowcy z Mount Sinai w Nowym Jorku odkryli, że o ile AI radzi sobie z „książkowymi” nagłymi przypadkami medycznymi z łatwością, o tyle w ponad połowie przypadków nie rozpoznaje powagi bardziej subtelnych sytuacji zagrażających życiu.
Badanie, prowadzone przez Ashwina Ramaswamy'ego, miało na celu odpowiedź na fundamentalne pytanie: jeśli użytkownik znajduje się w środku kryzysu medycznego, czy ChatGPT powie mu, aby udał się na oddział ratunkowy? Aby to przetestować, naukowcy przedstawili sztucznej inteligencji różne scenariusze kliniczne.
Wyniki ujawniły uderzającą dychotomię. W obliczu klasycznych, jednoznacznych nagłych wypadków – takich jak nagłe opadanie twarzy przy udarze lub pokrzywka i świszczący oddech przy ciężkiej reakcji alergicznej – ChatGPT poradził sobie znakomicie. Rozpoznał wzorce, na których został wytrenowany, i poprawnie zalecił natychmiastową interwencję medyczną.
Jednak medycyna rzadko jest tylko serią podręcznikowych definicji. Badanie wykazało, że ChatGPT miał znaczne trudności, gdy zagrożenie nie było natychmiast oczywiste. W przypadkach, w których objawy były bardziej niuansowe lub wymagały wyższego poziomu podejrzliwości klinicznej, AI zaniżała powagę sytuacji w ponad 50% prób.
Aby zrozumieć, dlaczego zaawansowany duży model językowy (LLM) zawodzi w tym miejscu, warto użyć analogii. Pomyśl o ChatGPT jak o światowej klasy bibliotekarzu, który przeczytał każdy podręcznik medyczny, jaki kiedykolwiek napisano, ale nigdy nie widział pacjenta. Bibliotekarz potrafi bezbłędnie wyrecytować objawy rzadkiej choroby, ale brakuje mu „intuicji klinicznej”, by zauważyć subtelną szarość cery pacjenta lub specyficzny sposób, w jaki osoba opisuje „tępy ból”, który w rzeczywistości może oznaczać krwotok wewnętrzny.
AI opiera się na rozpoznawaniu wzorców i prawdopodobieństwie. W podręcznikowym przypadku nagłym wzorce są głośne i wyraźne. W subtelnym przypadku nagłym wzorce są stłumione. Ponieważ AI nie może zadawać wyjaśniających pytań fizykalnych ani obserwować zachowania pacjenta, często domyślnie przyjmuje bardziej konserwatywną, mniej pilną interpretację dostarczonych danych.
Głównym powodem do niepokoju dla pracowników służby zdrowia jest „fałszywe zielone światło”. Gdy osoba pyta AI o objaw, a AI sugeruje domowe lekarstwo lub podejście „poczekamy, zobaczymy”, użytkownik czuje ulgę. To poznawcze uspokojenie może prowadzić do niebezpiecznych opóźnień w szukaniu profesjonalnej pomocy.
| Typ scenariusza | Wydajność AI | Typowy przykład |
|---|---|---|
| Nagły przypadek książkowy | Wysoka dokładność | Ból w klatce piersiowej promieniujący do lewego ramienia (Zawał serca) |
| Wyraźny uraz | Wysoka dokładność | Głębokie krwawienie tętnicze lub oczywiste złamanie kości |
| Subtelny nagły przypadek | Niska dokładność | Objawy ciąży pozamacicznej lub wczesne stadium sepsy |
| Zarządzanie przewlekłe | Umiarkowana dokładność | Dostosowanie diety w znanej cukrzycy typu 2 |
Jak sugeruje tabela, ryzyko leży w „szarej strefie”. Użytkownik może opisać „silny ból brzucha”, który w rzeczywistości jest zapaleniem wyrostka robaczkowego. Jeśli AI skupi się na niestrawności zamiast na ryzyku pęknięcia, okno na bezpieczną, rutynową operację może się zamknąć.
OpenAI nigdy nie twierdziło, że ChatGPT jest wyrobem medycznym. W rzeczywistości warunki korzystania z platformy wyraźnie stwierdzają, że narzędzie nie jest przeznaczone do porad medycznych, diagnozowania ani leczenia. Większość zapytań medycznych wyzwala teraz standardowe zastrzeżenie: „Jestem sztuczną inteligencją, a nie lekarzem. Skonsultuj się z pracownikiem służby zdrowia”.
Jednak, jak podkreśla badanie Mount Sinai, te zastrzeżenia są często ukryte pod akapitami pozornie autorytatywnych porad. Gdy użytkownik cierpi lub panikuje, prawdopodobnie pominie zastrzeżenie i przejdzie prosto do sugerowanego środka zaradczego. Badanie sugeruje, że obecne zabezpieczenia mogą nie wystarczyć, aby zapobiec poleganiu użytkowników na AI w krytycznym oknie czasowym.
Czy to oznacza, że nigdy nie powinieneś używać AI do pytań związanych ze zdrowiem? Niekoniecznie. AI może być doskonałym narzędziem do edukacji zdrowotnej – wyjaśniania złożonych terminów medycznych, pomagania w przygotowaniu pytań do lekarza lub znajdowania zdrowych przepisów. Ale jeśli chodzi o diagnozę i triaż, wymagane jest inne podejście.
Praktyczne kroki dla użytkowników:
Integracja AI z opieką zdrowotną jest nieunikniona i pod wieloma względami pożądana. W przyszłości wyspecjalizowane medyczne modele AI trenowane na zweryfikowanych danych klinicznych – a nie na ogólnym internecie – mogą stać się niezwykle dokładnymi narzędziami do triażu.
Do tego czasu badanie Mount Sinai służy jako istotne przypomnienie: ChatGPT jest potężnym lustrem ludzkiej wiedzy, ale brakuje mu ratującego życie osądu ludzkiego lekarza. Gdy stawką jest Twoje zdrowie, najlepszym „algorytmem” wciąż pozostaje wizyta na oddziale ratunkowym.



Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.
/ Utwórz bezpłatne konto