Katru nedēļu vairāk nekā 230 miljoni cilvēku vēršas pie ChatGPT pēc atbildēm. Viņi jautā par visu — no programmēšanas kļūdām līdz vakariņu receptēm, taču arvien biežāk viņi interesējas par savu veselību. Saskaņā ar OpenAI datiem lietotāji pārbauda, vai pārtika ir droša lietošanai uzturā, pārvalda hroniskas alerģijas vai meklē veidus, kā uzveikt ieilgušu saaukstēšanos.
Tomēr jauns pētījums, kas publicēts žurnālā Nature, liecina, ka, lai gan ChatGPT ir izcils sarunu biedrs, tas ir bīstami nekonsekvents triāžas speciālists. Pētnieki no "Mount Sinai" slimnīcas Ņujorkā atklāja, ka, lai gan mākslīgais intelekts (MI) viegli tiek galā ar "mācību grāmatu" medicīniskajām ārkārtas situācijām, tas vairāk nekā pusē gadījumu nespēj atpazīt smalkāku, dzīvībai bīstamu situāciju nopietnību.
Pētījumā, kuru vadīja Ašvins Ramasvami (Ashwin Ramaswamy), tika meklēta atbilde uz fundamentālu jautājumu: ja lietotājs atrodas medicīniskas krīzes vidū, vai ChatGPT liks viņam doties uz neatliekamās palīdzības nodaļu? Lai to pārbaudītu, pētnieki iepazīstināja MI ar dažādiem klīniskiem scenārijiem.
Rezultāti atklāja krasu dihotomiju. Saskaroties ar klasiskām, nepārprotamām ārkārtas situācijām — piemēram, pēkšņu sejas noslīdēšanu insulta gadījumā vai nātreni un sēkšanu smagas alerģiskas reakcijas laikā —, ChatGPT darbojās apbrīnojami. Tas atpazina modeļus, kuriem bija apmācīts, un pareizi ieteica tūlītēju medicīnisku iejaukšanos.
Taču medicīna reti ir tikai mācību grāmatu definīciju kopums. Pētījumā konstatēts, ka ChatGPT saskārās ar ievērojamām grūtībām, kad briesmas nebija uzreiz acīmredzamas. Gadījumos, kad simptomi bija niansētāki vai prasīja augstāku klīniskās aizdomu līmeni, MI par zemu novērtēja situācijas nopietnību vairāk nekā 50% gadījumu.
Lai saprastu, kāpēc uzlabots lielais valodas modelis (LLM) šeit cieš neveiksmi, lietderīgi izmantot analoģiju. Domājiet par ChatGPT kā par pasaules līmeņa bibliotekāru, kurš ir izlasījis visas jebkad uzrakstītās medicīnas mācību grāmatas, bet nekad nav redzējis nevienu pacientu. Bibliotekārs var perfekti nosaukt retas slimības simptomus, taču viņam trūkst "klīniskās intuīcijas", lai pamanītu smalku pelēcīgumu pacienta sejas krāsā vai specifisko veidu, kādā persona apraksta "trulas sāpes", kas patiesībā varētu liecināt par iekšēju asiņošanu.
MI darbojas, balstoties uz modeļu atpazīšanu un varbūtību. Mācību grāmatas ārkārtas situācijā modeļi ir skaļi un skaidri. Smalkā ārkārtas situācijā modeļi ir slāpēti. Tā kā MI nevar uzdot precizējošus fiziskus jautājumus vai novērot pacienta izturēšanos, tas bieži vien izvēlas konservatīvāku, mazāk steidzamu sniegto datu interpretāciju.
Veselības aprūpes speciālistu galvenās bažas rada "viltus zaļā gaisma". Kad cilvēks jautā MI par simptomu un MI iesaka mājas līdzekli vai "pagaidīt un novērot" pieeju, lietotājs izjūt atvieglojumu. Šis kognitīvais mierinājums var izraisīt bīstamu kavēšanos, meklējot profesionālu palīdzību.
| Scenārija veids | MI veiktspēja | Tipisks piemērs |
|---|---|---|
| Mācību grāmatas ārkārtas situācija | Augsta precizitāte | Sāpes krūtīs, kas izstaro uz kreiso roku (Sirdslēkme) |
| Skaidra trauma | Augsta precizitāte | Dziļa arteriāla asiņošana vai acīmredzams kaula lūzums |
| Smalka ārkārtas situācija | Zema precizitāte | Ārpusdzemdes grūtniecības simptomi vai agrīna sepse |
| Hroniska pārvaldība | Vidēja precizitāte | Diētas pielāgošana zināmam 2. tipa cukura diabētam |
Kā liecina tabula, risks slēpjas vidusceļā. Lietotājs varētu aprakstīt "stipras vēdersāpes", kas patiesībā ir apendicīts. Ja MI koncentrējas uz gremošanas traucējumiem, nevis plīsuma risku, drošas, rutīnas operācijas laiks var tikt nokavēts.
OpenAI nekad nav apgalvojis, ka ChatGPT ir medicīniska ierīce. Faktiski platformas pakalpojumu sniegšanas noteikumos ir skaidri norādīts, ka rīks nav paredzēts medicīniskām konsultācijām, diagnostikai vai ārstēšanai. Lielākā daļa medicīnisko vaicājumu tagad aktivizē standarta atrunu: "Es esmu MI, nevis ārsts. Lūdzu, konsultējieties ar veselības aprūpes speciālistu."
Tomēr, kā uzsver "Mount Sinai" pētījums, šīs atrunas bieži ir apraktas zem šķietami autoritatīvu padomu rindkopām. Kad lietotājs cieš sāpes vai paniku, viņš, visticamāk, izlaidīs atrunu un dosies tieši pie ieteiktā līdzekļa. Pētījums liecina, ka pašreizējās drošības barjeras var nebūt pietiekamas, lai neļautu lietotājiem paļauties uz MI kritiskā brīdī.
Vai tas nozīmē, ka nekad nevajadzētu izmantot MI ar veselību saistītiem jautājumiem? Ne obligāti. MI var būt lielisks rīks veselības pratībai — sarežģītu medicīnisko terminu skaidrošanai, palīdzībai sagatavot jautājumus ārstam vai veselīgu recepšu meklēšanai. Bet, kad runa ir par diagnozi un triāžu, nepieciešama cita pieeja.
Praktiski soļi lietotājiem:
MI integrācija veselības aprūpē ir neizbēgama un daudzos veidos vēlama. Nākotnē specializēti medicīniskā MI modeļi, kas apmācīti, izmantojot pārbaudītus klīniskos datus, nevis vispārējo internetu, var kļūt par neticami precīziem triāžas rīkiem.
Līdz tam "Mount Sinai" pētījums kalpo kā būtisks atgādinājums: ChatGPT ir spēcīgs cilvēka zināšanu spogulis, taču tam trūkst cilvēka-ārsta dzīvību glābjošās spriestspējas. Kad uz spēles ir jūsu veselība, labākais "algoritms" joprojām ir došanās uz neatliekamās palīdzības nodaļu.



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu