Kiekvieną savaitę daugiau nei 230 milijonų žmonių kreipiasi į „ChatGPT“ ieškodami atsakymų. Jie klausia apie viską – nuo programavimo klaidų iki vakarienės receptų, tačiau vis dažniau domisi savo sveikata. Pasak „OpenAI“, vartotojai tikrina, ar maistas saugus valgyti, valdo lėtinę alergiją arba ieško būdų, kaip įveikti įsisenėjusį peršalimą.
Tačiau naujas žurnale Nature paskelbtas tyrimas rodo, kad nors „ChatGPT“ yra puikus pašnekovas, jis yra pavojingai nenuosekli rūšiavimo slaugytoja. Niujorko „Mount Sinai“ tyrėjai nustatė, kad nors DII lengvai susidoroja su „vadovėlinėmis“ medicininėmis skubiosiomis situacijomis, daugiau nei pusę laiko jam nepavyksta atpažinti subtilesnių, gyvybei pavojingų situacijų rimtumo.
Tyrimas, kuriam vadovavo Ashwin Ramaswamy, siekė atsakyti į esminį klausimą: jei vartotojas atsiduria medicininės krizės viduryje, ar „ChatGPT“ lieps jam vykti į skubios pagalbos skyrių? Norėdami tai patikrinti, tyrėjai pateikė DII įvairius klinikinius scenarijus.
Rezultatai atskleidė ryškią dichotomiją. Susidūręs su klasikinėmis, neklystamomis skubiosiomis situacijomis, pavyzdžiui, staigiu veido perkreipimu ištikus insultui arba dilgėline ir švokštimu dėl sunkios alerginės reakcijos, „ChatGPT“ pasirodė puikiai. Jis atpažino modelius, pagal kuriuos buvo apmokytas, ir teisingai patarė nedelsiant kreiptis į gydytojus.
Tačiau medicina retai tėra vadovėlinių apibrėžimų rinkinys. Tyrimas parodė, kad „ChatGPT“ kilo didelių sunkumų, kai pavojus nebuvo akivaizdus iš karto. Tais atvejais, kai simptomai buvo subtilesni arba reikalavo aukštesnio lygio klinikinio įtarumo, DII neįvertino situacijos rimtumo daugiau nei 50 % bandymų.
Norint suprasti, kodėl pažangus didysis kalbos modelis (LLM) čia klysta, padeda analogija. Įsivaizduokite „ChatGPT“ kaip pasaulinio lygio bibliotekininką, kuris perskaitė visus kada nors parašytus medicinos vadovėlius, bet niekada realiai nematė paciento. Bibliotekininkas gali puikiai išvardyti retos ligos simptomus, tačiau jam trūksta „klinikinės intuicijos“, kad pastebėtų subtilų paciento veido papilkėjimą ar specifinį būdą, kuriuo žmogus apibūdina „maudžiantį skausmą“, galintį reikšti vidinį kraujavimą.
DII veikia remdamasis modelių atpažinimu ir tikimybe. Vadovėlinės skubios pagalbos atveju modeliai yra garsūs ir aiškūs. Subtilios skubios pagalbos atveju modeliai yra prislopinti. Kadangi DII negali užduoti patikslinančių fizinių klausimų ar stebėti paciento elgsenos, jis dažnai pasirenka konservatyvesnį, ne tokį skubų pateiktų duomenų aiškinimą.
Pagrindinis sveikatos priežiūros specialistų rūpestis yra „klaidinga žalia šviesa“. Kai asmuo klausia DII apie simptomą, o DII pasiūlo naminę priemonę arba požiūrį „palaukime ir pamatysime“, vartotojas pajunta palengvėjimą. Šis kognityvinis raminimas gali lemti pavojingą delsimą kreiptis profesionalios pagalbos.
| Scenarijaus tipas | DII našumas | Tipinis pavyzdys |
|---|---|---|
| Vadovėlinė skubioji pagalba | Didelis tikslumas | Krūtinės skausmas, plintantis į kairę ranką (širdies smūgis) |
| Akivaizdi trauma | Didelis tikslumas | Gilus arterinis kraujavimas arba akivaizdus kaulo lūžis |
| Subtili skubioji pagalba | Mažas tikslumas | Negimdinio nėštumo simptomai arba ankstyvos stadijos sepsis |
| Lėtinių ligų valdymas | Vidutinis tikslumas | Dietos koregavimas sergant žinomu 2 tipo cukriniu diabetu |
Kaip rodo lentelė, rizika slypi vidurio kelyje. Vartotojas gali apibūdinti „stiprų pilvo skausmą“, kuris iš tikrųjų yra apendicitas. Jei DII sutelks dėmesį į virškinimo sutrikimą, o ne į plyšimo riziką, saugios, įprastos operacijos galimybių langas gali užsiverti.
„OpenAI“ niekada neteigė, kad „ChatGPT“ yra medicinos prietaisas. Tiesą sakant, platformos paslaugų teikimo sąlygose aiškiai nurodyta, kad įrankis nėra skirtas medicininėms konsultacijoms, diagnozėms nustatyti ar gydymui. Dauguma medicininių užklausų dabar sukelia standartinį atsakomybės atsisakymą: „Aš esu DII, o ne gydytojas. Pasitarkite su sveikatos priežiūros specialistu.“
Tačiau, kaip pabrėžiama „Mount Sinai“ tyrime, šie atsakomybės atsisakymai dažnai būna paslėpti po pastraipomis, atrodytų, autoritetingų patarimų. Kai vartotojas jaučia skausmą ar panikuoja, jis greičiausiai praleis įspėjimą ir pereis tiesiai prie siūlomos priemonės. Tyrimas rodo, kad dabartinių saugos barjerų gali nepakakti, kad vartotojai nepasikliautų DII kritiniu laikotarpiu.
Ar tai reiškia, kad niekada neturėtumėte naudoti DII su sveikata susijusiems klausimams? Nebūtinai. DII gali būti puiki priemonė sveikatos raštingumui didinti – paaiškinti sudėtingus medicininius terminus, padėti pasiruošti klausimams gydytojui arba rasti sveikų receptų. Tačiau kalbant apie diagnozę ir skubios pagalbos poreikio nustatymą, reikalingas kitoks požiūris.
Praktiniai žingsniai vartotojams:
DII integracija į sveikatos apsaugą yra neišvengiama ir daugeliu atžvilgių pageidautina. Ateityje specializuoti medicininiai DII modeliai, apmokyti naudojant patikrintus klinikinius duomenis, o ne bendrąjį internetą, gali tapti neįtikėtinai tiksliais skubios pagalbos nustatymo įrankiais.
Iki tol „Mount Sinai“ tyrimas yra gyvybiškai svarbus priminimas: „ChatGPT“ yra galingas žmogaus žinių atspindys, tačiau jam trūksta žmogaus gydytojo gyvybę gelbstinčių sprendimų. Kai ant kortos pastatyta jūsų sveikata, geriausias „algoritmas“ vis dar yra apsilankymas skubios pagalbos skyriuje.



Pašto ir debesies saugojimo sprendimas suteikia galingiausias saugaus keitimosi duomenimis priemones, užtikrinančias jūsų duomenų saugumą ir privatumą.
/ Sukurti nemokamą paskyrą