Τεχνητή Νοημοσύνη

Γιατί η Τεχνητή Νοημοσύνη σας μπορεί να γράψει ένα μυθιστόρημα αλλά εξακολουθεί να δυσκολεύεται να μετρήσει μέχρι το πενήντα

Εξερευνήστε πώς το πρωτόκολλο KIS καταστέλλει τις παραισθήσεις της AI σε εργασίες καταμέτρησης, μετατρέποντας τις αδιαφανείς εξόδους των LLM σε διαφανή, ελέγξιμα ίχνη δεδομένων.
Rahul Mehta
Rahul Mehta
26 Απριλίου 2026
Γιατί η Τεχνητή Νοημοσύνη σας μπορεί να γράψει ένα μυθιστόρημα αλλά εξακολουθεί να δυσκολεύεται να μετρήσει μέχρι το πενήντα

Ζούμε αυτή τη στιγμή ένα παράξενο τεχνολογικό παράδοξο. Έχουμε κατασκευάσει μηχανές ικανές να περνούν εξετάσεις δικηγορικού συλλόγου, να διαγιγνώσκουν σπάνιες ιατρικές παθήσεις και να αναδομούν χιλιάδες γραμμές παλαιού κώδικα σε δευτερόλεπτα—κι όμως αυτοί οι ίδιοι ψηφιακοί τιτάνες συχνά σκοντάφτουν στην απλή εργασία της καταμέτρησης μιας λίστας λέξεων. Αν ζητήσετε από ένα Μεγάλο Γλωσσικό Μοντέλο (LLM) αιχμής να συνοψίσει ένα υπολογιστικό φύλλο χιλίων σειρών με απαντήσεις ερευνών, μπορεί να παράσχει μια εξαιρετικά διορατική θεματική ανάλυση, ενώ ταυτόχρονα θα έχει παραισθήσεις για τον πραγματικό αριθμό των ερωτηθέντων.

Αυτό δεν είναι απλώς ένα μικρό σφάλμα στο σύστημα· είναι ένα θεμελιώδες παράθυρο στο πώς η σύγχρονη αρχιτεκτονική λογισμικού έχει μετατοπιστεί από την άκαμπτη βεβαιότητα του παρελθόντος προς ένα ρευστό, πιθανολογικό μέλλον. Στο εσωτερικό του, ο τρόπος με τον οποίο μια Τεχνητή Νοημοσύνη (AI) «μετράει» είναι ριζικά διαφορετικός από τον τρόπο με τον οποίο μια παραδοσιακή βάση δεδομένων ή ο ανθρώπινος εγκέφαλος εκτελεί την ίδια εργασία. Αυτό το χάσμα μεταξύ των προσδοκιών μας και της απόδοσης του μοντέλου οδήγησε στη δημιουργία ενός νέου πεδίου μελέτης: την ποσοτική ανάλυση των παραισθήσεων (hallucinations) σε εργασίες επεξεργασίας δεδομένων.

Η απατηλή απλότητα της καταμέτρησης

Σε καθημερινούς όρους, η καταμέτρηση μοιάζει με την πιο βασική μονάδα ψηφιακής εργασίας. Υποθέτουμε ότι επειδή ένας υπολογιστής είναι, στον πυρήνα του, μια εξελιγμένη αριθμομηχανή, η αριθμητική ακρίβεια είναι δεδομένη. Ωστόσο, τα LLMs δεν είναι αριθμομηχανές· είναι εξελιγμένες μηχανές πρόβλεψης. Όταν παρέχετε σε ένα μοντέλο όπως το Gemini 3 Flash ή το GPT-5.3 Instant μια μακρά λίστα απαντήσεων «Ναι/Όχι/Εκκρεμεί» και ζητάτε ένα σύνολο, το μοντέλο δεν αυξάνει απλώς μια μεταβλητή σε έναν βρόχο. Επεξεργάζεται ολόκληρο το κείμενο μέσω ενός μηχανισμού προσοχής (attention mechanism), προσπαθώντας να διατηρήσει την «κατάσταση» της μέτρησης στα εσωτερικά νευρωνικά του μονοπάτια.

Μέσα από τον φακό του χρήστη, η εμπειρία είναι συχνά απογοητευτική. Μπορεί να παρατηρήσετε τον βοηθό AI σας να μετράει σωστά τις πρώτες σειρές, μόνο και μόνο για να χάσει τη σειρά του στη γραμμή 400. Αυτό είναι που οι ερευνητές ονομάζουν περιορισμό εσωτερικής προσοχής. Παραδόξως, όσο πιο διαλογικό και «ανθρώπινο» γίνεται ένα μοντέλο, τόσο περισσότερο φαίνεται επιρρεπές στα ίδια γνωστικά ολισθήματα που βιώνουμε εμείς όταν προσπαθούμε να μετρήσουμε ένα βάζο με κέρματα ενώ κάποιος μας φωνάζει τυχαίους αριθμούς.

Μια νέα ταξινόμηση: Τα τρία πρόσωπα της παραίσθησης

Πρόσφατη διερευνητική έρευνα που διεξήχθη από το Mirairzu Lab Kobo εντόπισε μια συναρπαστική μετατόπιση στον τρόπο με τον οποίο διαφορετικά μοντέλα αποτυγχάνουν σε αυτές τις εργασίες. Αποδεικνύεται ότι τα LLMs δεν κάνουν απλώς «λάθη»· παρουσιάζουν διακριτά μοτίβα συμπεριφοράς που αντικατοπτρίζουν διαφορετικούς τύπους τριβής λογισμικού.

Πρώτον, υπάρχει ο Τύπος Μυθοπλασίας (Confabulation Type), που παρατηρείται στο Gemini 3 Flash. Σε δοκιμές βάσης, το Gemini εμφάνισε αυτό που οι ερευνητές ονομάζουν «αρμονική παραίσθηση». Μπορεί να υπερμετρήσει μια κατηγορία ενώ υπομετρά μια άλλη, διασφαλίζοντας ότι το τελικό σύνολο παραμένει μαθηματικά τέλειο, ακόμη και αν η κατανομή είναι ένα πλήρες κατασκεύασμα. Ταυτόχρονα, βλέπουμε τον Τύπο Αποφυγής (Avoidance Type) σε μοντέλα όπως το GPT-5.3 Instant—όπου το λογισμικό απλώς παραιτείται μόλις το φορτίο επεξεργασίας υπερβεί ένα ορισμένο όριο, επιστρέφοντας ένα ευγενικό μήνυμα «Δεν μπορώ να μετρήσω τόσα πολλά στοιχεία».

Τέλος, υπάρχει ο Τύπος Αδιαφανούς Διαδικασίας (Process-Opaque Type), που συναντάται συχνά στο Claude Sonnet 4.6. Το Claude είναι εξαιρετικά ακριβές, ακόμη και μέχρι τα 2.000 στοιχεία, αλλά η μεθοδολογία του παραμένει ένα «μαύρο κουτί». Από την πλευρά ενός προγραμματιστή, αυτό είναι ένα δίκοπο μαχαίρι: παίρνετε τη σωστή απάντηση, αλλά δεν έχετε τρόπο να γνωρίζετε πότε ή γιατί το μοντέλο θα φτάσει τελικά στο «σημείο κατάρρευσης».

Τύπος Παραίσθησης Παράδειγμα Μοντέλου Κύριο Σύμπτωμα
Μυθοπλασία Gemini 3 Flash Κατασκευάζει δεδομένα για να ταιριάζουν σε ένα στατιστικά εύλογο σύνολο.
Αποφυγή GPT-5.3 Instant Αρνείται ή εγκαταλείπει την εργασία όταν αυξάνεται η πολυπλοκότητα.
Αδιαφανής Διαδικασία Claude 4.6 Εξαιρετικά ακριβές αλλά δεν παρέχει ίχνη ελέγχου της λογικής του.

Η αποτυχία της παραδοσιακής προτροπής

Ιστορικά, η απάντηση της τεχνολογικής βιομηχανίας στην ανακρίβεια της AI ήταν η προτροπή «Αλυσίδας Σκέψης» (Chain-of-Thought - CoT)—η απλή οδηγία «σκέψου βήμα-βήμα». Αλλά καθώς το λογισμικό γίνεται πιο περίπλοκο, αυτή η κάποτε πανταχού παρούσα λύση δείχνει σημάδια τεχνικού χρέους.

Στα πειράματα του Mirairzu Lab, η εφαρμογή του CoT μόνο στο ChatGPT αποδείχθηκε στην πραγματικότητα αντιπαραγωγική. Όταν του ζητήθηκε να καταγράψει το σκεπτικό του για ένα σύνολο δεδομένων 200 στοιχείων, η ακρίβεια του μοντέλου στην πραγματικότητα μειώθηκε. Οι επιπλέον λέξεις που έπρεπε να δημιουργήσει λειτούργησαν ως θόρυβος επεξεργασίας, αποσπώντας το μοντέλο από την κύρια εργασία. Αυτό ευθυγραμμίζεται με πρόσφατα ευρήματα του κλάδου που υποδηλώνουν ότι για την τελευταία γενιά μοντέλων συλλογιστικής, το να τους λες πώς να σκέφτονται μπορεί μερικές φορές να είναι τόσο ενοχλητικό όσο ένας συνοδηγός που φωνάζει οδηγίες σε έναν επαγγελματία οδηγό αγώνων.

Το εξωτερικό ικρίωμα: Μηχανική του πρωτοκόλλου KIS

Εάν η απλή προτροπή αποτυγχάνει, η βιομηχανία στρέφεται προς πιο ισχυρά, ιδιόκτητα πρωτόκολλα. Ένα τέτοιο πλαίσιο είναι το Σύστημα Καινοτομίας Γνώσης (Knowledge Innovation System - KIS), το οποίο λειτουργεί ως «εξωτερικό ικρίωμα» για την AI. Αντί να βασίζεται στην εσωτερική μνήμη του μοντέλου, το KIS αναγκάζει την AI να εξωτερικεύει τα ενδιάμεσα βήματά της σε ένα δομημένο αρχείο καταγραφής.

Ουσιαστικά, το KIS αντιμετωπίζει το LLM ως εξάρτημα σε μια μεγαλύτερη μηχανή και όχι ως μια παντογνώστη οντότητα. Επιβάλλοντας ένα πρωτόκολλο όπως το «Level 4 / Logic: Strict», το σύστημα διαχωρίζει τη φάση καταμέτρησης, τη φάση επαλήθευσης και τη φάση αναφοράς. Αυτός ο δομικός περιορισμός λειτουργεί σαν ένα ψηφιακό προσχέδιο, διασφαλίζοντας ότι το μοντέλο δεν μπορεί να προχωρήσει στο επόμενο βήμα μέχρι να επαληθεύσει το προηγούμενο.

Πίσω από την οθόνη, αυτή η προσέγγιση λύνει το πρόβλημα της «αρμονικής παραίσθησης». Όταν το Gemini εκτελέστηκε μέσω του πρωτοκόλλου KIS, η ακρίβειά του εκτινάχθηκε στο 100% σε όλους τους τομείς. Δεν επιτράπηκε στο μοντέλο να μαντέψει απλώς μια εύλογη κατανομή· αναγκάστηκε να παράσχει μια έξοδο «log: full» που χρησίμευε ως επαληθεύσιμο ίχνος ελέγχου.

Από την ακρίβεια στην ελεγξιμότητα: Μια αλλαγή παραδείγματος

Κοιτάζοντας το θέμα σε επίπεδο κλάδου, αυτή η έρευνα υπογραμμίζει μια βαθιά μετατόπιση στον τρόπο με τον οποίο κρίνουμε το λογισμικό. Για χρόνια, το χρυσό πρότυπο ήταν η ακρίβεια—μου έδωσε η εφαρμογή τη σωστή απάντηση; Αλλά καθώς ενσωματώνουμε την AI σε νομικές, οικονομικές και ιατρικές ροές εργασίας, η ακρίβεια από μόνη της δεν είναι πλέον αρκετή. Εισερχόμαστε στην εποχή της ελεγξιμότητας (auditability).

Όπως δείχνει η απόδοση του Claude, το να έχεις ένα μοντέλο που είναι «συνήθως σωστό» αποτελεί ευθύνη εάν δεν γνωρίζεις γιατί είναι σωστό. Εάν ένας ανθρώπινος ελεγκτής δεν μπορεί να εντοπίσει τη διαδρομή από τα ακατέργαστα δεδομένα στο τελικό σύνολο, το λογισμικό παραμένει κίνδυνος. Πρωτόκολλα όπως το KIS αντιπροσωπεύουν το επόμενο στάδιο του ιστού: μια απομάκρυνση από τα αποσπασματικά αποτελέσματα των πρώιμων chatbots που βασίζονταν στην «αίσθηση», προς μια πιο ανθεκτική, διαφανή αρχιτεκτονική όπου η διαδικασία είναι εξίσου σημαντική με το αποτέλεσμα.

Διεκδικώντας το ψηφιακό προσχέδιο

Τελικά, η σχέση μας με την τεχνολογία καθορίζεται από το πόσο μεγάλο μέρος του «πώς λειτουργεί» είμαστε διατεθειμένοι να αναθέσουμε σε τρίτους. Όταν χρησιμοποιούμε ένα LLM για να μετρήσουμε, να συνοψίσουμε ή να αναλύσουμε, ανταλλάσσουμε τη μηχανική βεβαιότητα του παραδοσιακού κώδικα με την ευέλικτη διαίσθηση των νευρωνικών δικτύων.

Για τον απλό χρήστη, το συμπέρασμα είναι πρακτικό: μην υποθέτετε ότι η ευφράδεια ενός μοντέλου είναι ένδειξη της ικανότητάς του στους αριθμούς. Την επόμενη φορά που θα ζητήσετε από μια AI να σας βοηθήσει σε μια εργασία με πολλά δεδομένα, αναζητήστε το «ικρίωμα». Δείχνει το μοντέλο τη δουλειά του; Παρέχει ένα αρχείο καταγραφής των βημάτων του; Εάν όχι, κοιτάζετε ένα μαύρο κουτί που μπορεί να επινοεί τους αριθμούς απλώς και μόνο για να συνεχίσει τη ροή της συζήτησης.

Καθώς πλοηγούμαστε σε αυτή τη σιωπηλή αλλαγή στον σχεδιασμό λογισμικού, η πιο σημαντική δεξιότητα που μπορούμε να αναπτύξουμε είναι μια «ματιά UX» για τη διαφάνεια. Θα πρέπει να απαιτούμε εργαλεία που δεν μας δίνουν μόνο την απάντηση, αλλά παρέχουν το ίχνος ελέγχου που είναι απαραίτητο για την απόδειξή της. Σε έναν κόσμο αρμονικών παραισθήσεων, το πιο ανατρεπτικό χαρακτηριστικό που μπορεί να προσφέρει ένα λογισμικό είναι η απλή, ταπεινή αλήθεια ενός επαληθεύσιμου αρχείου καταγραφής.

Πηγές:

  • Hasegawa, H., & Kamogawa (2026). KIS: A Question-Centric Protocol Architecture for Hierarchical AI Thought Control. Zenodo.
  • Huang et al. (2024). A Survey on Hallucination in Large Language Models. ACM TOIS.
  • Meincke & Mollick (2025). The Decreasing Value of Chain of Thought in Prompting. Wharton School Research Paper.
  • Zhao et al. (2025). NumericBench: Exposing Numeracy Gaps in Large Language Models. arXiv pre-print.
  • Mirairzu Lab Kobo (2026). Quantitative Analysis of Hallucination Bias in LLM Counting Tasks.
bg
bg
bg

Τα λέμε στην άλλη πλευρά.

Η από άκρη σε άκρη κρυπτογραφημένη λύση ηλεκτρονικού ταχυδρομείου και αποθήκευσης στο cloud παρέχει τα πιο ισχυρά μέσα ασφαλούς ανταλλαγής δεδομένων, εξασφαλίζοντας την ασφάλεια και το απόρρητο των δεδομένων σας.

/ Εγγραφείτε δωρεάν