Ζούμε αυτή τη στιγμή ένα παράξενο τεχνολογικό παράδοξο. Έχουμε κατασκευάσει μηχανές ικανές να περνούν εξετάσεις δικηγορικού συλλόγου, να διαγιγνώσκουν σπάνιες ιατρικές παθήσεις και να αναδομούν χιλιάδες γραμμές παλαιού κώδικα σε δευτερόλεπτα—κι όμως αυτοί οι ίδιοι ψηφιακοί τιτάνες συχνά σκοντάφτουν στην απλή εργασία της καταμέτρησης μιας λίστας λέξεων. Αν ζητήσετε από ένα Μεγάλο Γλωσσικό Μοντέλο (LLM) αιχμής να συνοψίσει ένα υπολογιστικό φύλλο χιλίων σειρών με απαντήσεις ερευνών, μπορεί να παράσχει μια εξαιρετικά διορατική θεματική ανάλυση, ενώ ταυτόχρονα θα έχει παραισθήσεις για τον πραγματικό αριθμό των ερωτηθέντων.
Αυτό δεν είναι απλώς ένα μικρό σφάλμα στο σύστημα· είναι ένα θεμελιώδες παράθυρο στο πώς η σύγχρονη αρχιτεκτονική λογισμικού έχει μετατοπιστεί από την άκαμπτη βεβαιότητα του παρελθόντος προς ένα ρευστό, πιθανολογικό μέλλον. Στο εσωτερικό του, ο τρόπος με τον οποίο μια Τεχνητή Νοημοσύνη (AI) «μετράει» είναι ριζικά διαφορετικός από τον τρόπο με τον οποίο μια παραδοσιακή βάση δεδομένων ή ο ανθρώπινος εγκέφαλος εκτελεί την ίδια εργασία. Αυτό το χάσμα μεταξύ των προσδοκιών μας και της απόδοσης του μοντέλου οδήγησε στη δημιουργία ενός νέου πεδίου μελέτης: την ποσοτική ανάλυση των παραισθήσεων (hallucinations) σε εργασίες επεξεργασίας δεδομένων.
Σε καθημερινούς όρους, η καταμέτρηση μοιάζει με την πιο βασική μονάδα ψηφιακής εργασίας. Υποθέτουμε ότι επειδή ένας υπολογιστής είναι, στον πυρήνα του, μια εξελιγμένη αριθμομηχανή, η αριθμητική ακρίβεια είναι δεδομένη. Ωστόσο, τα LLMs δεν είναι αριθμομηχανές· είναι εξελιγμένες μηχανές πρόβλεψης. Όταν παρέχετε σε ένα μοντέλο όπως το Gemini 3 Flash ή το GPT-5.3 Instant μια μακρά λίστα απαντήσεων «Ναι/Όχι/Εκκρεμεί» και ζητάτε ένα σύνολο, το μοντέλο δεν αυξάνει απλώς μια μεταβλητή σε έναν βρόχο. Επεξεργάζεται ολόκληρο το κείμενο μέσω ενός μηχανισμού προσοχής (attention mechanism), προσπαθώντας να διατηρήσει την «κατάσταση» της μέτρησης στα εσωτερικά νευρωνικά του μονοπάτια.
Μέσα από τον φακό του χρήστη, η εμπειρία είναι συχνά απογοητευτική. Μπορεί να παρατηρήσετε τον βοηθό AI σας να μετράει σωστά τις πρώτες σειρές, μόνο και μόνο για να χάσει τη σειρά του στη γραμμή 400. Αυτό είναι που οι ερευνητές ονομάζουν περιορισμό εσωτερικής προσοχής. Παραδόξως, όσο πιο διαλογικό και «ανθρώπινο» γίνεται ένα μοντέλο, τόσο περισσότερο φαίνεται επιρρεπές στα ίδια γνωστικά ολισθήματα που βιώνουμε εμείς όταν προσπαθούμε να μετρήσουμε ένα βάζο με κέρματα ενώ κάποιος μας φωνάζει τυχαίους αριθμούς.
Πρόσφατη διερευνητική έρευνα που διεξήχθη από το Mirairzu Lab Kobo εντόπισε μια συναρπαστική μετατόπιση στον τρόπο με τον οποίο διαφορετικά μοντέλα αποτυγχάνουν σε αυτές τις εργασίες. Αποδεικνύεται ότι τα LLMs δεν κάνουν απλώς «λάθη»· παρουσιάζουν διακριτά μοτίβα συμπεριφοράς που αντικατοπτρίζουν διαφορετικούς τύπους τριβής λογισμικού.
Πρώτον, υπάρχει ο Τύπος Μυθοπλασίας (Confabulation Type), που παρατηρείται στο Gemini 3 Flash. Σε δοκιμές βάσης, το Gemini εμφάνισε αυτό που οι ερευνητές ονομάζουν «αρμονική παραίσθηση». Μπορεί να υπερμετρήσει μια κατηγορία ενώ υπομετρά μια άλλη, διασφαλίζοντας ότι το τελικό σύνολο παραμένει μαθηματικά τέλειο, ακόμη και αν η κατανομή είναι ένα πλήρες κατασκεύασμα. Ταυτόχρονα, βλέπουμε τον Τύπο Αποφυγής (Avoidance Type) σε μοντέλα όπως το GPT-5.3 Instant—όπου το λογισμικό απλώς παραιτείται μόλις το φορτίο επεξεργασίας υπερβεί ένα ορισμένο όριο, επιστρέφοντας ένα ευγενικό μήνυμα «Δεν μπορώ να μετρήσω τόσα πολλά στοιχεία».
Τέλος, υπάρχει ο Τύπος Αδιαφανούς Διαδικασίας (Process-Opaque Type), που συναντάται συχνά στο Claude Sonnet 4.6. Το Claude είναι εξαιρετικά ακριβές, ακόμη και μέχρι τα 2.000 στοιχεία, αλλά η μεθοδολογία του παραμένει ένα «μαύρο κουτί». Από την πλευρά ενός προγραμματιστή, αυτό είναι ένα δίκοπο μαχαίρι: παίρνετε τη σωστή απάντηση, αλλά δεν έχετε τρόπο να γνωρίζετε πότε ή γιατί το μοντέλο θα φτάσει τελικά στο «σημείο κατάρρευσης».
| Τύπος Παραίσθησης | Παράδειγμα Μοντέλου | Κύριο Σύμπτωμα |
|---|---|---|
| Μυθοπλασία | Gemini 3 Flash | Κατασκευάζει δεδομένα για να ταιριάζουν σε ένα στατιστικά εύλογο σύνολο. |
| Αποφυγή | GPT-5.3 Instant | Αρνείται ή εγκαταλείπει την εργασία όταν αυξάνεται η πολυπλοκότητα. |
| Αδιαφανής Διαδικασία | Claude 4.6 | Εξαιρετικά ακριβές αλλά δεν παρέχει ίχνη ελέγχου της λογικής του. |
Ιστορικά, η απάντηση της τεχνολογικής βιομηχανίας στην ανακρίβεια της AI ήταν η προτροπή «Αλυσίδας Σκέψης» (Chain-of-Thought - CoT)—η απλή οδηγία «σκέψου βήμα-βήμα». Αλλά καθώς το λογισμικό γίνεται πιο περίπλοκο, αυτή η κάποτε πανταχού παρούσα λύση δείχνει σημάδια τεχνικού χρέους.
Στα πειράματα του Mirairzu Lab, η εφαρμογή του CoT μόνο στο ChatGPT αποδείχθηκε στην πραγματικότητα αντιπαραγωγική. Όταν του ζητήθηκε να καταγράψει το σκεπτικό του για ένα σύνολο δεδομένων 200 στοιχείων, η ακρίβεια του μοντέλου στην πραγματικότητα μειώθηκε. Οι επιπλέον λέξεις που έπρεπε να δημιουργήσει λειτούργησαν ως θόρυβος επεξεργασίας, αποσπώντας το μοντέλο από την κύρια εργασία. Αυτό ευθυγραμμίζεται με πρόσφατα ευρήματα του κλάδου που υποδηλώνουν ότι για την τελευταία γενιά μοντέλων συλλογιστικής, το να τους λες πώς να σκέφτονται μπορεί μερικές φορές να είναι τόσο ενοχλητικό όσο ένας συνοδηγός που φωνάζει οδηγίες σε έναν επαγγελματία οδηγό αγώνων.
Εάν η απλή προτροπή αποτυγχάνει, η βιομηχανία στρέφεται προς πιο ισχυρά, ιδιόκτητα πρωτόκολλα. Ένα τέτοιο πλαίσιο είναι το Σύστημα Καινοτομίας Γνώσης (Knowledge Innovation System - KIS), το οποίο λειτουργεί ως «εξωτερικό ικρίωμα» για την AI. Αντί να βασίζεται στην εσωτερική μνήμη του μοντέλου, το KIS αναγκάζει την AI να εξωτερικεύει τα ενδιάμεσα βήματά της σε ένα δομημένο αρχείο καταγραφής.
Ουσιαστικά, το KIS αντιμετωπίζει το LLM ως εξάρτημα σε μια μεγαλύτερη μηχανή και όχι ως μια παντογνώστη οντότητα. Επιβάλλοντας ένα πρωτόκολλο όπως το «Level 4 / Logic: Strict», το σύστημα διαχωρίζει τη φάση καταμέτρησης, τη φάση επαλήθευσης και τη φάση αναφοράς. Αυτός ο δομικός περιορισμός λειτουργεί σαν ένα ψηφιακό προσχέδιο, διασφαλίζοντας ότι το μοντέλο δεν μπορεί να προχωρήσει στο επόμενο βήμα μέχρι να επαληθεύσει το προηγούμενο.
Πίσω από την οθόνη, αυτή η προσέγγιση λύνει το πρόβλημα της «αρμονικής παραίσθησης». Όταν το Gemini εκτελέστηκε μέσω του πρωτοκόλλου KIS, η ακρίβειά του εκτινάχθηκε στο 100% σε όλους τους τομείς. Δεν επιτράπηκε στο μοντέλο να μαντέψει απλώς μια εύλογη κατανομή· αναγκάστηκε να παράσχει μια έξοδο «log: full» που χρησίμευε ως επαληθεύσιμο ίχνος ελέγχου.
Κοιτάζοντας το θέμα σε επίπεδο κλάδου, αυτή η έρευνα υπογραμμίζει μια βαθιά μετατόπιση στον τρόπο με τον οποίο κρίνουμε το λογισμικό. Για χρόνια, το χρυσό πρότυπο ήταν η ακρίβεια—μου έδωσε η εφαρμογή τη σωστή απάντηση; Αλλά καθώς ενσωματώνουμε την AI σε νομικές, οικονομικές και ιατρικές ροές εργασίας, η ακρίβεια από μόνη της δεν είναι πλέον αρκετή. Εισερχόμαστε στην εποχή της ελεγξιμότητας (auditability).
Όπως δείχνει η απόδοση του Claude, το να έχεις ένα μοντέλο που είναι «συνήθως σωστό» αποτελεί ευθύνη εάν δεν γνωρίζεις γιατί είναι σωστό. Εάν ένας ανθρώπινος ελεγκτής δεν μπορεί να εντοπίσει τη διαδρομή από τα ακατέργαστα δεδομένα στο τελικό σύνολο, το λογισμικό παραμένει κίνδυνος. Πρωτόκολλα όπως το KIS αντιπροσωπεύουν το επόμενο στάδιο του ιστού: μια απομάκρυνση από τα αποσπασματικά αποτελέσματα των πρώιμων chatbots που βασίζονταν στην «αίσθηση», προς μια πιο ανθεκτική, διαφανή αρχιτεκτονική όπου η διαδικασία είναι εξίσου σημαντική με το αποτέλεσμα.
Τελικά, η σχέση μας με την τεχνολογία καθορίζεται από το πόσο μεγάλο μέρος του «πώς λειτουργεί» είμαστε διατεθειμένοι να αναθέσουμε σε τρίτους. Όταν χρησιμοποιούμε ένα LLM για να μετρήσουμε, να συνοψίσουμε ή να αναλύσουμε, ανταλλάσσουμε τη μηχανική βεβαιότητα του παραδοσιακού κώδικα με την ευέλικτη διαίσθηση των νευρωνικών δικτύων.
Για τον απλό χρήστη, το συμπέρασμα είναι πρακτικό: μην υποθέτετε ότι η ευφράδεια ενός μοντέλου είναι ένδειξη της ικανότητάς του στους αριθμούς. Την επόμενη φορά που θα ζητήσετε από μια AI να σας βοηθήσει σε μια εργασία με πολλά δεδομένα, αναζητήστε το «ικρίωμα». Δείχνει το μοντέλο τη δουλειά του; Παρέχει ένα αρχείο καταγραφής των βημάτων του; Εάν όχι, κοιτάζετε ένα μαύρο κουτί που μπορεί να επινοεί τους αριθμούς απλώς και μόνο για να συνεχίσει τη ροή της συζήτησης.
Καθώς πλοηγούμαστε σε αυτή τη σιωπηλή αλλαγή στον σχεδιασμό λογισμικού, η πιο σημαντική δεξιότητα που μπορούμε να αναπτύξουμε είναι μια «ματιά UX» για τη διαφάνεια. Θα πρέπει να απαιτούμε εργαλεία που δεν μας δίνουν μόνο την απάντηση, αλλά παρέχουν το ίχνος ελέγχου που είναι απαραίτητο για την απόδειξή της. Σε έναν κόσμο αρμονικών παραισθήσεων, το πιο ανατρεπτικό χαρακτηριστικό που μπορεί να προσφέρει ένα λογισμικό είναι η απλή, ταπεινή αλήθεια ενός επαληθεύσιμου αρχείου καταγραφής.
Πηγές:



Η από άκρη σε άκρη κρυπτογραφημένη λύση ηλεκτρονικού ταχυδρομείου και αποθήκευσης στο cloud παρέχει τα πιο ισχυρά μέσα ασφαλούς ανταλλαγής δεδομένων, εξασφαλίζοντας την ασφάλεια και το απόρρητο των δεδομένων σας.
/ Εγγραφείτε δωρεάν