हर हफ्ते, 230 मिलियन से अधिक लोग जवाबों के लिए ChatGPT की ओर रुख करते हैं। वे कोडिंग बग से लेकर रात के खाने के व्यंजनों तक सब कुछ के बारे में पूछते हैं, लेकिन तेजी से, वे अपने स्वास्थ्य के बारे में भी पूछ रहे हैं। OpenAI के अनुसार, उपयोगकर्ता यह जांच रहे हैं कि क्या भोजन खाना सुरक्षित है, पुरानी एलर्जी का प्रबंधन कर रहे हैं, या जिद्दी सर्दी को दूर करने के तरीके खोज रहे हैं।
हालांकि, Nature जर्नल में प्रकाशित एक नया अध्ययन बताता है कि जबकि ChatGPT एक शानदार संवादी है, यह एक खतरनाक रूप से असंगत ट्राइएज नर्स (triage nurse) है। न्यूयॉर्क के माउंट सिनाई के शोधकर्ताओं ने पाया कि जबकि एआई "पाठ्यपुस्तक" वाली चिकित्सा आपात स्थितियों को आसानी से संभाल लेता है, यह आधे से अधिक समय अधिक सूक्ष्म, जीवन-धमकाने वाली स्थितियों की गंभीरता को पहचानने में विफल रहता है।
अश्विन रामास्वामी के नेतृत्व में किए गए इस अध्ययन ने एक मौलिक प्रश्न का उत्तर खोजने की कोशिश की: यदि कोई उपयोगकर्ता चिकित्सा संकट के बीच में है, तो क्या ChatGPT उन्हें आपातकालीन कक्ष (ER) जाने के लिए कहेगा? इसका परीक्षण करने के लिए, शोधकर्ताओं ने एआई के सामने विभिन्न नैदानिक परिदृश्य प्रस्तुत किए।
परिणामों ने एक चौंकाने वाला विरोधाभास प्रकट किया। जब क्लासिक, अचूक आपात स्थितियों का सामना करना पड़ा—जैसे कि स्ट्रोक के कारण चेहरे का अचानक झुकना या गंभीर एलर्जी की प्रतिक्रिया के कारण पित्ती और घरघराहट—तो ChatGPT ने सराहनीय प्रदर्शन किया। इसने उन पैटर्न को पहचाना जिन पर इसे प्रशिक्षित किया गया था और सही ढंग से तत्काल चिकित्सा हस्तक्षेप की सलाह दी।
लेकिन चिकित्सा शायद ही कभी पाठ्यपुस्तक की परिभाषाओं की एक श्रृंखला होती है। अध्ययन में पाया गया कि जब खतरा तुरंत स्पष्ट नहीं था, तब ChatGPT ने महत्वपूर्ण रूप से संघर्ष किया। उन मामलों में जहां लक्षण अधिक सूक्ष्म थे या उच्च स्तर के नैदानिक संदेह की आवश्यकता थी, एआई ने 50% से अधिक परीक्षणों में स्थिति की गंभीरता को कम करके आंका।
यह समझने के लिए कि एक उन्नत लार्ज लैंग्वेज मॉडल (LLM) यहाँ क्यों विफल रहता है, एक उपमा का उपयोग करना सहायक होता है। ChatGPT को एक विश्व स्तरीय लाइब्रेरियन के रूप में सोचें जिसने अब तक लिखी गई हर मेडिकल पाठ्यपुस्तक पढ़ी है, लेकिन वास्तव में कभी किसी मरीज को नहीं देखा है। लाइब्रेरियन एक दुर्लभ बीमारी के लक्षणों को पूरी तरह से सुना सकता है, लेकिन उनमें मरीज के रंग में सूक्ष्म पीलापन या किसी व्यक्ति द्वारा "हल्के दर्द" का वर्णन करने के विशिष्ट तरीके को नोटिस करने के लिए "नैदानिक अंतर्ज्ञान" की कमी होती है, जो वास्तव में आंतरिक रक्तस्राव का संकेत दे सकता है।
एआई पैटर्न पहचान और संभाव्यता पर काम करता है। पाठ्यपुस्तक आपातकाल में, पैटर्न स्पष्ट और तेज होते हैं। एक सूक्ष्म आपातकाल में, पैटर्न दबे हुए होते हैं। क्योंकि एआई स्पष्टीकरण के लिए शारीरिक प्रश्न नहीं पूछ सकता या रोगी के व्यवहार का निरीक्षण नहीं कर सकता, यह अक्सर प्रदान किए गए डेटा की अधिक रूढ़िवादी, कम जरूरी व्याख्या को चुनता है।
स्वास्थ्य पेशेवरों के लिए प्राथमिक चिंता "गलत हरी झंडी" (false green light) है। जब कोई व्यक्ति एआई से किसी लक्षण के बारे में पूछता है और एआई घरेलू उपचार या "प्रतीक्षा करें और देखें" दृष्टिकोण का सुझाव देता है, तो उपयोगकर्ता राहत महसूस करता है। यह संज्ञानात्मक आश्वासन पेशेवर मदद लेने में खतरनाक देरी का कारण बन सकता है।
| परिदृश्य का प्रकार | एआई का प्रदर्शन | विशिष्ट उदाहरण |
|---|---|---|
| पाठ्यपुस्तक आपातकाल | उच्च सटीकता | सीने में दर्द जो बाएं हाथ तक फैलता है (दिल का दौरा) |
| स्पष्ट चोट | उच्च सटीकता | गहरी धमनी से रक्तस्राव या स्पष्ट हड्डी का फ्रैक्चर |
| सूक्ष्म आपातकाल | कम सटीकता | अस्थानिक गर्भावस्था के लक्षण या प्रारंभिक चरण का सेप्सिस |
| पुरानी बीमारी का प्रबंधन | मध्यम सटीकता | ज्ञात टाइप 2 मधुमेह के लिए आहार का समायोजन |
जैसा कि तालिका से पता चलता है, जोखिम बीच के रास्ते में है। एक उपयोगकर्ता "पेट के तेज दर्द" का वर्णन कर सकता है जो वास्तव में अपेंडिसाइटिस है। यदि एआई फटने के जोखिम के बजाय अपच पर ध्यान केंद्रित करता है, तो एक सुरक्षित, नियमित सर्जरी का अवसर हाथ से निकल सकता है।
OpenAI ने कभी दावा नहीं किया है कि ChatGPT एक चिकित्सा उपकरण है। वास्तव में, प्लेटफॉर्म की सेवा की शर्तें स्पष्ट रूप से बताती हैं कि टूल चिकित्सा सलाह, निदान या उपचार के लिए अभिप्रेत नहीं है। अधिकांश चिकित्सा प्रश्न अब एक मानक अस्वीकरण (disclaimer) को ट्रिगर करते हैं: "मैं एक एआई हूं, डॉक्टर नहीं। कृपया किसी स्वास्थ्य देखभाल पेशेवर से परामर्श लें।"
हालांकि, जैसा कि माउंट सिनाई अध्ययन उजागर करता है, ये अस्वीकरण अक्सर आधिकारिक लगने वाली सलाह के पैराग्राफ के नीचे दबे होते हैं। जब कोई उपयोगकर्ता दर्द में होता है या घबराया हुआ होता है, तो वे अस्वीकरण को छोड़ने और सीधे सुझाए गए उपाय की ओर बढ़ने की संभावना रखते हैं। अध्ययन बताता है कि वर्तमान सुरक्षा उपाय उपयोगकर्ताओं को महत्वपूर्ण समय के दौरान एआई पर भरोसा करने से रोकने के लिए पर्याप्त नहीं हो सकते हैं।
क्या इसका मतलब यह है कि आपको स्वास्थ्य संबंधी प्रश्नों के लिए कभी भी एआई का उपयोग नहीं करना चाहिए? जरूरी नहीं। एआई स्वास्थ्य साक्षरता के लिए एक उत्कृष्ट उपकरण हो सकता है—जटिल चिकित्सा शब्दों की व्याख्या करना, आपके डॉक्टर के लिए प्रश्न तैयार करने में आपकी सहायता करना, या स्वस्थ व्यंजन खोजना। लेकिन जब निदान और ट्राइएज की बात आती है, तो एक अलग दृष्टिकोण की आवश्यकता होती है।
उपयोगकर्ताओं के लिए व्यावहारिक कदम:
स्वास्थ्य सेवा में एआई का एकीकरण अपरिहार्य है और कई मायनों में वांछनीय भी है। भविष्य में, सामान्य इंटरनेट के बजाय सत्यापित नैदानिक डेटा पर प्रशिक्षित विशेष चिकित्सा एआई मॉडल अविश्वसनीय रूप से सटीक ट्राइएज उपकरण बन सकते हैं।
तब तक, माउंट सिनाई का अध्ययन एक महत्वपूर्ण अनुस्मारक के रूप में कार्य करता है: ChatGPT मानवीय ज्ञान का एक शक्तिशाली दर्पण है, लेकिन इसमें एक मानव डॉक्टर के जीवन रक्षक निर्णय की कमी है। जब आपका स्वास्थ्य दांव पर हो, तो सबसे अच्छा "एल्गोरिदम" अभी भी आपातकालीन कक्ष की यात्रा ही है।



हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।
/ एक नि: शुल्क खाता बनाएं