Power Reads

Το Δίλημμα του Γιατρού AI: Γιατί το ChatGPT Εξακολουθεί να Δυσκολεύεται με τα Ιατρικά Επείγοντα Περιστατικά

Μια νέα μελέτη στο Nature προειδοποιεί ότι το ChatGPT υποτιμά το 50% των ιατρικών επειγόντων περιστατικών. Μάθετε γιατί η AI δεν είναι έτοιμη να αντικαταστήσει τις επαγγελματικές συμβουλές επείγουσας φροντίδας.
Linda Zola
Linda Zola
6 Μαρτίου 2026
Το Δίλημμα του Γιατρού AI: Γιατί το ChatGPT Εξακολουθεί να Δυσκολεύεται με τα Ιατρικά Επείγοντα Περιστατικά

Κάθε εβδομάδα, περισσότεροι από 230 εκατομμύρια άνθρωποι στρέφονται στο ChatGPT για απαντήσεις. Ρωτούν για τα πάντα, από σφάλματα στον προγραμματισμό μέχρι συνταγές μαγειρικής, αλλά όλο και περισσότερο ρωτούν για την υγεία τους. Σύμφωνα με την OpenAI, οι χρήστες ελέγχουν αν τα τρόφιμα είναι ασφαλή για κατανάλωση, διαχειρίζονται χρόνιες αλλεργίες ή αναζητούν τρόπους για να αντιμετωπίσουν ένα επίμονο κρυολόγημα.

Ωστόσο, μια νέα μελέτη που δημοσιεύθηκε στο περιοδικό Nature υποδηλώνει ότι, ενώ το ChatGPT είναι ένας εξαιρετικός συνομιλητής, είναι μια επικίνδυνα ασυνεπής νοσοκόμα διαλογής. Ερευνητές από το Mount Sinai στη Νέα Υόρκη διαπίστωσαν ότι, ενώ η Τεχνητή Νοημοσύνη (AI) χειρίζεται με ευκολία τα ιατρικά επείγοντα περιστατικά που περιγράφονται στα «εγχειρίδια», αποτυγχάνει να αναγνωρίσει τη σοβαρότητα πιο λεπτών, απειλητικών για τη ζωή καταστάσεων σε ποσοστό μεγαλύτερο από το ήμισυ των περιπτώσεων.

Το Χάσμα Μεταξύ Γνώσης και Κρίσης

Η μελέτη, υπό την καθοδήγηση του Ashwin Ramaswamy, επεδίωξε να απαντήσει σε ένα θεμελιώδες ερώτημα: εάν ένας χρήστης βρίσκεται εν μέσω μιας ιατρικής κρίσης, θα του πει το ChatGPT να πάει στα επείγοντα; Για να το ελέγξουν αυτό, οι ερευνητές παρουσίασαν στην AI διάφορα κλινικά σενάρια.

Τα αποτελέσματα αποκάλυψαν μια εντυπωσιακή διχοτομία. Όταν βρέθηκε αντιμέτωπο με κλασικά, αδιαμφισβήτητα επείγοντα περιστατικά —όπως η ξαφνική παράλυση του προσώπου λόγω εγκεφαλικού επεισοδίου ή οι πομφοί και ο συριγμός μιας σοβαρής αλλεργικής αντίδρασης— το ChatGPT απέδωσε θαυμάσια. Αναγνώρισε τα μοτίβα στα οποία είχε εκπαιδευτεί και συμβούλευσε σωστά την άμεση ιατρική παρέμβαση.

Αλλά η ιατρική σπάνια είναι απλώς μια σειρά ορισμών από εγχειρίδια. Η μελέτη διαπίστωσε ότι το ChatGPT δυσκολεύτηκε σημαντικά όταν ο κίνδυνος δεν ήταν άμεσα εμφανής. Σε περιπτώσεις όπου τα συμπτώματα ήταν πιο λεπτά ή απαιτούσαν υψηλότερο επίπεδο κλινικής υποψίας, η AI υποτίμησε τη σοβαρότητα της κατάστασης σε πάνω από το 50% των δοκιμών.

Γιατί η AI Χάνει τα Λεπτά Σημάδια

Για να καταλάβουμε γιατί ένα προηγμένο μεγάλο γλωσσικό μοντέλο (LLM) αποτυγχάνει εδώ, βοηθά η χρήση μιας αναλογίας. Σκεφτείτε το ChatGPT ως έναν παγκόσμιας κλάσης βιβλιοθηκάριο που έχει διαβάσει κάθε ιατρικό εγχειρίδιο που έχει γραφτεί ποτέ, αλλά δεν έχει δει ποτέ πραγματικά έναν ασθενή. Ο βιβλιοθηκάριος μπορεί να απαγγείλει τέλεια τα συμπτώματα μιας σπάνιας νόσου, αλλά του λείπει η «κλινική διαίσθηση» για να παρατηρήσει την ανεπαίσθητη ωχρότητα στο χρώμα ενός ασθενούς ή τον συγκεκριμένο τρόπο με τον οποίο ένα άτομο περιγράφει έναν «αμβλύ πόνο» που μπορεί στην πραγματικότητα να υποδηλώνει εσωτερική αιμορραγία.

Η AI λειτουργεί με βάση την αναγνώριση προτύπων και τις πιθανότητες. Σε ένα επείγον περιστατικό «εγχειριδίου», τα πρότυπα είναι ξεκάθαρα. Σε ένα λιγότερο προφανές επείγον περιστατικό, τα πρότυπα είναι συγκεχυμένα. Επειδή η AI δεν μπορεί να θέσει διευκρινιστικές ερωτήσεις φυσικής εξέτασης ούτε να παρατηρήσει τη συμπεριφορά του ασθενούς, συχνά καταλήγει σε μια πιο συντηρητική, λιγότερο επείγουσα ερμηνεία των παρεχόμενων δεδομένων.

Ο Κίνδυνος του «Ψευδούς Πράσινου Φωτός»

Η κύρια ανησυχία για τους επαγγελματίες υγείας είναι το «ψευδές πράσινο φως». Όταν ένα άτομο ρωτά μια AI για ένα σύμπτωμα και η AI προτείνει μια σπιτική θεραπεία ή μια προσέγγιση «περιμένουμε και βλέπουμε», ο χρήστης νιώθει μια αίσθηση ανακούφισης. Αυτή η γνωστική καθησύχαση μπορεί να οδηγήσει σε επικίνδυνες καθυστερήσεις στην αναζήτηση επαγγελματικής βοήθειας.

Τύπος Σεναρίου Απόδοση AI Τυπικό Παράδειγμα
Επείγον «Εγχειριδίου» Υψηλή Ακρίβεια Πόνος στο στήθος που αντανακλά στο αριστερό χέρι (Έμφραγμα)
Ξεκάθαρο Τραύμα Υψηλή Ακρίβεια Βαθιά αρτηριακή αιμορραγία ή εμφανές κάταγμα οστού
Λεπτό Επείγον Χαμηλή Ακρίβεια Συμπτώματα εξωμήτριας κύησης ή σήψη πρώιμου σταδίου
Χρόνια Διαχείριση Μέτρια Ακρίβεια Προσαρμογή διατροφής για γνωστό Διαβήτη Τύπου 2

Όπως υποδηλώνει ο πίνακας, ο κίνδυνος βρίσκεται στην ενδιάμεση ζώνη. Ένας χρήστης μπορεί να περιγράψει έναν «έντονο πόνο στο στομάχι» που στην πραγματικότητα είναι σκωληκοειδίτιδα. Εάν η AI επικεντρωθεί στη δυσπεψία αντί για τον κίνδυνο ρήξης, το παράθυρο για μια ασφαλή, ρουτίνας χειρουργική επέμβαση θα μπορούσε να κλείσει.

Η Θέση της OpenAI και οι Δικλείδες Ασφαλείας

Η OpenAI δεν ισχυρίστηκε ποτέ ότι το ChatGPT είναι ιατρική συσκευή. Στην πραγματικότητα, οι όροι παροχής υπηρεσιών της πλατφόρμας αναφέρουν ρητά ότι το εργαλείο δεν προορίζεται για ιατρικές συμβουλές, διάγνωση ή θεραπεία. Τα περισσότερα ιατρικά ερωτήματα ενεργοποιούν πλέον μια τυπική αποποίηση ευθύνης: «Είμαι μια AI, όχι γιατρός. Παρακαλούμε συμβουλευτείτε έναν επαγγελματία υγείας».

Ωστόσο, όπως επισημαίνει η μελέτη του Mount Sinai, αυτές οι αποποιήσεις ευθύνης είναι συχνά θαμμένες κάτω από παραγράφους φαινομενικά αυθεντικών συμβουλών. Όταν ένας χρήστης πονάει ή πανικοβάλλεται, είναι πιθανό να παραλείψει την αποποίηση ευθύνης και να κατευθυνθεί κατευθείαν στην προτεινόμενη θεραπεία. Η μελέτη υποδηλώνει ότι οι τρέχουσες δικλείδες ασφαλείας ενδέχεται να μην επαρκούν για να αποτρέψουν τους χρήστες από το να βασίζονται στην AI κατά τη διάρκεια ενός κρίσιμου χρονικού παραθύρου.

Πώς να Πλοηγηθείτε με Ασφάλεια στις Συμβουλές Υγείας από AI

Σημαίνει αυτό ότι δεν πρέπει ποτέ να χρησιμοποιείτε την AI για ερωτήσεις που σχετίζονται με την υγεία; Όχι απαραίτητα. Η AI μπορεί να είναι ένα εξαιρετικό εργαλείο για τον γραμματισμό σε θέματα υγείας — εξηγώντας σύνθετους ιατρικούς όρους, βοηθώντας σας να προετοιμάσετε ερωτήσεις για τον γιατρό σας ή βρίσκοντας υγιεινές συνταγές. Αλλά όταν πρόκειται για διάγνωση και διαλογή, απαιτείται μια διαφορετική προσέγγιση.

Πρακτικά Βήματα για τους Χρήστες:

  • Ο Κανόνας της «Κόκκινης Σημαίας»: Εάν αντιμετωπίζετε ξαφνικό, έντονο πόνο, δυσκολία στην αναπνοή ή νευρολογικές αλλαγές (σύγχυση, μούδιασμα), παρακάμψτε εντελώς την AI και καλέστε τις υπηρεσίες έκτακτης ανάγκης.
  • Χρησιμοποιήστε την AI για Διευκρινίσεις, Όχι για Διάγνωση: Χρησιμοποιήστε το ChatGPT για να σας εξηγήσει μια διάγνωση που έχετε ήδη λάβει από έναν γιατρό, αντί να προσπαθήσετε να λάβετε μια νέα από το bot.
  • Επαληθεύστε με Αξιόπιστες Πηγές: Εάν το ChatGPT σάς δώσει μια συμβουλή υγείας, διασταυρώστε την με καθιερωμένες ιατρικές πύλες όπως η Mayo Clinic, το NHS ή η Cleveland Clinic.
  • Να είστε Συγκεκριμένοι αλλά Σκεπτικοί: Εάν χρησιμοποιείτε την AI για την παρακολούθηση συμπτωμάτων, γίνετε όσο το δυνατόν πιο λεπτομερείς, αλλά αντιμετωπίστε το αποτέλεσμα ως μια πρόταση για συζήτηση με έναν επαγγελματία, όχι ως τελική ετυμηγορία.

Η Πορεία Προς το Μέλλον

Η ενσωμάτωση της AI στην υγειονομική περίθαλψη είναι αναπόφευκτη και, με πολλούς τρόπους, επιθυμητή. Στο μέλλον, εξειδικευμένα ιατρικά μοντέλα AI εκπαιδευμένα σε επαληθευμένα κλινικά δεδομένα —και όχι στο γενικό διαδίκτυο— μπορεί να γίνουν απίστευτα ακριβή εργαλεία διαλογής.

Μέχρι τότε, η μελέτη του Mount Sinai χρησιμεύει ως μια ζωτική υπενθύμιση: το ChatGPT είναι ένας ισχυρός καθρέφτης της ανθρώπινης γνώσης, αλλά του λείπει η σωτήρια κρίση ενός ανθρώπου γιατρού. Όταν η υγεία σας διακυβεύεται, ο καλύτερος «αλγόριθμος» εξακολουθεί να είναι μια επίσκεψη στα επείγοντα.

bg
bg
bg

Τα λέμε στην άλλη πλευρά.

Η από άκρη σε άκρη κρυπτογραφημένη λύση ηλεκτρονικού ταχυδρομείου και αποθήκευσης στο cloud παρέχει τα πιο ισχυρά μέσα ασφαλούς ανταλλαγής δεδομένων, εξασφαλίζοντας την ασφάλεια και το απόρρητο των δεδομένων σας.

/ Εγγραφείτε δωρεάν