Power Reads

Tehisintellektist arsti dilemma: miks ChatGPT-l on endiselt raskusi meditsiiniliste hädaolukordadega

Uus uuring ajakirjas Nature hoiatab, et ChatGPT alahindab 50% meditsiinilistest hädaolukordadest. Saage teada, miks tehisintellekt ei ole valmis asendama professionaalset erakorralise abi nõuannet.
Linda Zola
Linda Zola
6. märts 2026
Tehisintellektist arsti dilemma: miks ChatGPT-l on endiselt raskusi meditsiiniliste hädaolukordadega

Igal nädalal pöördub üle 230 miljoni inimese vastuste saamiseks ChatGPT poole. Nad küsivad kõike alates programmeerimisvigadest kuni õhtusöögi retseptideni, kuid üha enam küsivad nad oma tervise kohta. OpenAI andmetel kontrollivad kasutajad, kas toit on söömiseks ohutu, haldavad kroonilisi allergiaid või otsivad viise visast külmetusest vabanemiseks.

Siiski viitab ajakirjas Nature avaldatud uus uuring, et kuigi ChatGPT on hiilgav vestluspartner, on ta ohtlikult ebakindel triaažiõde. New Yorgi Mount Sinai teadlased leidsid, et kuigi tehisintellekt saab "õpikunäidetest" pärinevate meditsiiniliste hädaolukordadega hõlpsasti hakkama, ei suuda ta rohkem kui pooltel kordadel tuvastada peenemate, eluohtlike olukordade tõsidust.

Lõhe teadmiste ja otsustusvõime vahel

Ashwin Ramaswamy juhitud uuring püüdis vastata põhiküsimusele: kui kasutaja on keset tervislikku kriisi, kas ChatGPT käsib tal minna erakorralise meditsiini osakonda? Selle testimiseks esitasid teadlased tehisintellektile erinevaid kliinilisi stsenaariume.

Tulemused paljastasid silmapaistva dikotoomia. Seistes silmitsi klassikaliste, eksimatute hädaolukordadega — nagu insuldi puhul tekkiv äkiline näolihaste lõtvumine või raske allergilise reaktsiooni puhul tekkiv nõgestõbi ja vilistav hingamine — toimis ChatGPT imetlusväärselt. See tundis ära mustrid, mille põhjal teda oli treenitud, ja soovitas õigesti kohest meditsiinilist sekkumist.

Kuid meditsiin on harva vaid rida õpikudefinitsioone. Uuring leidis, et ChatGPT-l oli märkimisväärseid raskusi, kui oht ei olnud kohe ilmne. Juhtudel, kus sümptomid olid varjatumad või nõudsid kõrgemat kliinilist kahtlust, alahindas tehisintellekt olukorra tõsidust enam kui 50% katsetest.

Miks tehisintellekt jätab märkamata peened märgid

Mõistmaks, miks täiustatud suur keelemudel (LLM) siinkohal ebaõnnestub, on abi analoogiast. Mõelge ChatGPT-st kui maailmatasemel raamatukoguhoidjast, kes on läbi lugenud kõik kunagi kirjutatud meditsiiniõpikud, kuid pole kunagi tegelikult patsienti näinud. Raamatukoguhoidja võib haruldase haiguse sümptomeid täiuslikult tsiteerida, kuid tal puudub "kliiniline intuitsioon", et märgata patsiendi jume peent hallust või spetsiifilist viisi, kuidas inimene kirjeldab "tüütut valu", mis võib tegelikult tähendada sisemist verejooksu.

Tehisintellekt põhineb mustrituvastusel ja tõenäosusel. Õpiku-pärases hädaolukorras on mustrid valjud ja selged. Varjatud hädaolukorras on mustrid summutatud. Kuna tehisintellekt ei saa esitada täpsustavaid füüsilisi küsimusi ega jälgida patsiendi käitumist, valib ta sageli esitatud andmete konservatiivsema ja vähem kiireloomulise tõlgenduse.

"Vale rohelise tule" oht

Tervishoiutöötajate peamine mure on "vale roheline tuli". Kui inimene küsib tehisintellektilt sümptomi kohta ja tehisintellekt soovitab kodust ravimit või "oota ja vaata" lähenemist, tunneb kasutaja kergendust. See kognitiivne rahustamine võib viia ohtlike viivitusteni professionaalse abi otsimisel.

Stsenaariumi tüüp Tehisintellekti sooritus Tüüpiline näide
Õpiku-pärane hädaolukord Kõrge täpsus Rindkerevalu, mis kiirgab vasakusse kätte (südameinfarkt)
Selgepiiriline trauma Kõrge täpsus Sügav arteriaalne verejooks või ilmne luumurd
Varjatud hädaolukord Madal täpsus Emakavälise raseduse sümptomid või varajases staadiumis sepsis
Krooniline haldamine Mõõdukas täpsus Dieedi kohandamine teadaoleva 2. tüüpi diabeedi puhul

Nagu tabel viitab, peitub risk vahepealses alas. Kasutaja võib kirjeldada "pehmet kõhuvalu", mis on tegelikult apenditsiit. Kui tehisintellekt keskendub seedehäiretele, mitte lõhkemise ohule, võib aken ohutuks ja rutiinseks operatsiooniks sulguda.

OpenAI seisukoht ja ohutuspiirded

OpenAI pole kunagi väitnud, et ChatGPT on meditsiiniseade. Tegelikult on platvormi teenusetingimustes selgesõnaliselt kirjas, et tööriist ei ole mõeldud meditsiiniliseks nõustamiseks, diagnoosimiseks ega raviks. Enamik meditsiinilisi päringuid käivitab nüüd standardse lahtiütluse: "Olen tehisintellekt, mitte arst. Palun konsulteerige tervishoiutöötajaga."

Kuid nagu Mount Sinai uuring rõhutab, on need lahtiütlused sageli peidetud näiliselt autoriteetsete nõuannete lõikude alla. Kui kasutaja on valudes või paanikas, jätab ta tõenäoliselt lahtiütluse vahele ja suundub otse soovitatud ravimeetodi juurde. Uuring viitab sellele, et praegused ohutuspiirded ei pruugi olla piisavad, et takistada kasutajaid kriitilisel ajahetkel tehisintellektile toetumast.

Kuidas tehisintellekti tervisenõuannetes ohutult orienteeruda

Kas see tähendab, et te ei tohiks kunagi kasutada tehisintellekti tervisega seotud küsimuste jaoks? Mitte tingimata. Tehisintellekt võib olla suurepärane vahend terviseteadlikkuse parandamiseks — keeruliste meditsiiniterminite selgitamiseks, arsti jaoks küsimuste ettevalmistamiseks või tervislike retseptide leidmiseks. Kuid kui tegemist on diagnoosimise ja triaažiga, on vaja teistsugust lähenemist.

Praktilised sammud kasutajatele:

  • "Punase lipu" reegel: Kui kogete äkilist tugevat valu, hingamisraskusi või neuroloogilisi muutusi (segadus, tuimus), minge tehisintellektist täielikult mööda ja helistage hädaabinumbrile.
  • Kasutage tehisintellekti selgitusteks, mitte diagnoosimiseks: Kasutage ChatGPT-d arstilt juba saadud diagnoosi selgitamiseks, mitte selleks, et robotilt uut saada.
  • Kontrollige usaldusväärsetest allikatest: Kui ChatGPT annab teile tervisenõu, võrrelge seda tunnustatud meditsiiniportaalidega nagu Mayo Clinic, NHS või Cleveland Clinic.
  • Olge konkreetne, kuid skeptiline: Kui kasutate tehisintellekti sümptomite jälgimiseks, olge võimalikult üksikasjalik, kuid suhtuge väljundisse kui soovitusse, mida arutada spetsialistiga, mitte kui lõplikku otsusesse.

Tee edasi

Tehisintellekti integreerimine tervishoidu on vältimatu ja mitmes mõttes soovitav. Tulevikus võivad spetsialiseeritud meditsiinilised tehisintellekti mudelid, mis on treenitud kontrollitud kliiniliste andmete — mitte üldise interneti — põhjal, muutuda uskumatult täpseteks triaažitööriistadeks.

Seni on Mount Sinai uuring oluline meeldetuletus: ChatGPT on inimteadmiste võimas peegeldus, kuid tal puudub inim-arsti elupäästev otsustusvõime. Kui teie tervis on kaalul, on parim "algoritm" siiski reis erakorralise meditsiini osakonda.

bg
bg
bg

Kohtumiseni teisel poolel.

Meie läbivalt krüpteeritud e-posti ja pilvesalvestuse lahendus pakub kõige võimsamaid vahendeid turvaliseks andmevahetuseks, tagades teie andmete turvalisuse ja privaatsuse.

/ Tasuta konto loomin