Τον τελευταίο χρόνο, μια αθόρυβη μετανάστευση βρίσκεται σε εξέλιξη στον κόσμο της τεχνητής νοημοσύνης. Ενώ το ChatGPT της OpenAI παραμένει το πασίγνωστο όνομα, μια σημαντική ομάδα χρηστών, προγραμματιστών και συγγραφέων που ενδιαφέρονται για την ιδιωτικότητα ετοίμασαν τις ψηφιακές τους αποσκευές και μετακινήθηκαν στο Claude της Anthropic. Το αφήγημα ήταν απλό: η OpenAI γινόταν υπερβολικά φιλική με τα συμφέροντα της κρατικής επιτήρησης —κάτι που υπογραμμίστηκε από τον διορισμό ενός πρώην διευθυντή της NSA στο διοικητικό της συμβούλιο— ενώ η Anthropic παρέμενε η ηθική εναλλακτική λύση που έθετε την ασφάλεια σε προτεραιότητα.
Αλλά η πραγματικότητα της τεχνολογικής βιομηχανίας σπάνια είναι τόσο δυαδική. Αυτή την εβδομάδα, αυτό το αφήγημα προσέκρουσε σε ένα σημαντικό εμπόδιο. Η Anthropic ενημέρωσε αθόρυβα τα πρωτόκολλά της για να συμπεριλάβει την απαίτηση ορισμένοι χρήστες να παρέχουν κρατική ταυτότητα με φωτογραφία και μια ζωντανή selfie για να συνεχίσουν να χρησιμοποιούν την υπηρεσία. Για μια κοινότητα που εντάχθηκε στο Claude ειδικά για να ξεφύγει από την αίσθηση ότι την παρακολουθούν, η ειρωνεία είναι έντονη. Αυτό εγείρει ένα θεμελιώδες ερώτημα για το μέλλον του διαδικτύου: Μπορούμε ποτέ να έχουμε πραγματικά υψηλού επιπέδου χρηστικότητα χωρίς να παραδώσουμε την απόλυτη ανωνυμία μας;
Για να καταλάβουμε γιατί αυτή η κίνηση μοιάζει με προδοσία για κάποιους, πρέπει να δούμε την ατμόσφαιρα που προηγήθηκε. Στα μέσα του 2024 και καθ' όλη τη διάρκεια του 2025, η OpenAI αντιμετώπισε μια σειρά από κρίσεις δημοσίων σχέσεων σχετικά με τη διαχείριση δεδομένων και τη σχέση της με ομοσπονδιακές υπηρεσίες. Αυτό δημιούργησε ένα κενό που η Anthropic έσπευσε να καλύψει. Προωθήθηκαν ως οι δημιουργοί της «Συνταγματικής Τεχνητής Νοημοσύνης» (Constitutional AI), ενός συστήματος που διέπεται από ένα σύνολο ηθικών αρχών και όχι μόνο από ακατέργαστα μοτίβα δεδομένων.
Για τον μέσο χρήστη, το Claude έμοιαζε με μια πιο προσεγμένη, λιγότερο «εταιρική» εκδοχή του μέλλοντος της ΤΝ. Ήταν ο ακούραστος ασκούμενος που δεν έκανε απλώς τη δουλειά, αλλά φαινόταν να νοιάζεται για τους κανόνες. Ωστόσο, η περίοδος του μέλιτος της έκρηξης της ΤΝ τελειώνει και η ρυθμιστική πραγματικότητα εδραιώνεται. Η νέα επαλήθευση ταυτότητας της Anthropic δεν είναι μια τυχαία ιδιοτροπία· είναι μια απάντηση στη συστημική πίεση της λειτουργίας ενός εργαλείου που χρησιμοποιείται όλο και περισσότερο για εργασίες υψηλού ρίσκου.
Αν και φαίνεται ως μια ξαφνική στροφή, η εξέταση της ευρύτερης εικόνας αποκαλύπτει ένα μεταβαλλόμενο τοπίο όπου το «εμπιστεύσου αλλά επαλήθευσε» γίνεται η υποχρεωτική διαδικασία λειτουργίας για κάθε εταιρεία που διαχειρίζεται τεράστια ποσά υπολογιστικής ισχύος.
Πρακτικά μιλώντας, η Anthropic δεν χτίζει μια γιγαντιαία εσωτερική βάση δεδομένων διαβατηρίων. Όπως πολλές εφαρμογές fintech και υπηρεσίες κοινής χρήσης αυτοκινήτων, αναθέτουν το δύσκολο έργο σε μια τρίτη πλατφόρμα ταυτότητας που ονομάζεται Persona. Όταν ένας χρήστης επισημαίνεται για επαλήθευση, του ζητείται να σκανάρει την ταυτότητά του και να βγάλει μια «ζωντανή» selfie για να αποδείξει ότι δεν είναι bot ή deepfake.
Πίσω από την ορολογία της «ακεραιότητας της πλατφόρμας», υπάρχουν τρεις κύριοι λόγοι για τους οποίους μια εταιρεία όπως η Anthropic θα προέβαινε σε αυτό το δραστικό βήμα:
Περιέργως, η Anthropic είναι ο πρώτος μεγάλος παίκτης που το καθιστά ορατό μέρος της εμπειρίας του καταναλωτή. Ενώ η Google και η Microsoft διαθέτουν ήδη τεράστια ποσά δεδομένων για εσάς, δεν σας έχουν ζητήσει ακόμα να δείξετε την άδεια οδήγησής σας μόνο και μόνο για να συνομιλήσετε με το bot τους. Η κίνηση της Anthropic είναι διαφανής, αλλά για πολλούς, είναι επίσης ενοχλητικά παρεμβατική.
Από την πλευρά του καταναλωτή, η επιλογή μεταξύ παρόχων ΤΝ δεν αφορά πλέον μόνο το ποιος γράφει καλύτερη ποίηση ή κώδικα. Αφορά το ποιον «φόρο» είστε διατεθειμένοι να πληρώσετε για την υπηρεσία.
| Χαρακτηριστικό | Anthropic (Claude) | OpenAI (ChatGPT) | Google (Gemini) |
|---|---|---|---|
| Πρωτογενής Πηγή Δεδομένων | Εντολές χρήστη | Εντολές χρήστη | Ολοκληρωμένο οικοσύστημα Google |
| Επαλήθευση Ταυτότητας | Κρατική Ταυτότητα/Selfie (για ορισμένους) | Email/Αριθμός τηλεφώνου | Ιστορικό Λογαριασμού Google |
| Εξαίρεση από Εκπαίδευση | Διαθέσιμη για χρήστες Pro/Team | Διαθέσιμη στις ρυθμίσεις | Διαθέσιμη στις ρυθμίσεις |
| Κοινοποίηση σε Τρίτους | Χρήση Persona για ελέγχους ταυτότητας | Κοινοποίηση σε συνεργάτες ασφαλείας | Εσωτερική κοινοποίηση δεδομένων Google |
Ουσιαστικά, βλέπουμε έναν διαχωρισμό στον τρόπο διαχείρισης της ιδιωτικότητας. Η Google και η Microsoft γνωρίζουν ήδη ποιοι είστε επειδή ζείτε στα οικοσυστήματά τους. Η OpenAI σας γνωρίζει μέσω του τηλεφωνικού σας αριθμού και της μεθόδου πληρωμής. Η Anthropic, στερούμενη αυτών των βαθιών ιστορικών δεδομένων, επιλέγει μια πιο ισχυρή, «σκληρή» μέθοδο επαλήθευσης.
Για το άτομο που χρησιμοποιεί το Claude για να συνοψίσει ένα PDF ή να βοηθήσει στη σύνταξη ενός email, αυτό μπορεί να φαντάζει υπερβολικό. Για να το θέσουμε αλλιώς, είναι σαν να σας ζητούν δακτυλικό αποτύπωμα για να μπείτε σε μια δημόσια βιβλιοθήκη. Ωστόσο, το φίλτρο του «Και λοιπόν;» υποδηλώνει ότι αυτή είναι η αρχή μιας ευρύτερης τάσης.
Καθώς τα μοντέλα ΤΝ γίνονται πιο ικανά να εκτελούν ενέργειες στον πραγματικό κόσμο —όπως κράτηση πτήσεων, μεταφορά χρημάτων ή πρόσβαση σε ιατρικά αρχεία— η ανάγκη για «Απόδειξη Ανθρωπότητας» (Proof of Personhood) θα μεγαλώνει. Εάν ένας πράκτορας ΤΝ πρόκειται να ενεργήσει για λογαριασμό σας, το σύστημα πρέπει να είναι 100% σίγουρο ότι είστε όντως εσείς που δίνετε τις εντολές.
Από την πλευρά της αγοράς, αυτή η κίνηση μπορεί στην πραγματικότητα να βλάψει την ανάπτυξη της Anthropic βραχυπρόθεσμα. Η ασταθής φύση της εμπιστοσύνης των χρηστών σημαίνει ότι ακόμα και ένα μικρό σημείο τριβής, όπως ένας έλεγχος ταυτότητας, μπορεί να στείλει τους ανθρώπους πίσω στους ανταγωνιστές. Αλλά από την πλευρά μιας ανθεκτικής επιχείρησης, η Anthropic πιθανότατα στοιχηματίζει ότι το να είναι η «πιο συμμορφωμένη» εταιρεία θα την καταστήσει την προτιμώμενη επιλογή για μεγάλους εταιρικούς πελάτες και κυβερνητικές συμβάσεις μακροπρόθεσμα.
Τελικά, οι «φόβοι επιτήρησης» που οδήγησαν τους χρήστες στο Claude δεν έχουν επιλυθεί· απλώς άλλαξαν μορφή. Περάσαμε από την ανησυχία για τη χρήση των δεδομένων μας για την εκπαίδευση ενός εγκεφάλου, στην ανησυχία για τη σύνδεση της φυσικής μας ταυτότητας με τα ψηφιακά μας ερωτήματα.
Εάν σας ζητηθεί να επαληθεύσετε την ταυτότητά σας, έχετε μια επιλογή να κάνετε. Η Anthropic δηλώνει ότι αυτά τα δεδομένα δεν χρησιμοποιούνται για εκπαίδευση και τυγχάνουν διαχείρισης από μια εξειδικευμένη εταιρεία ασφαλείας. Για πολλούς, η χρησιμότητα του «ακούραστου ασκούμενου» αξίζει τον συμβιβασμό. Για άλλους, η απαίτηση είναι ένα βήμα παραπέρα από το επιτρεπτό.
Κοιτάζοντας τη μεγάλη εικόνα, θα πρέπει να περιμένουμε ότι αυτό θα γίνει το βιομηχανικό πρότυπο. Η εποχή του ανώνυμου, ισχυρού βοηθού ΤΝ πιθανότατα πλησιάζει στο τέλος της. Καθώς αυτά τα εργαλεία γίνονται το ψηφιακό αργό πετρέλαιο της οικονομίας μας, οι φύλακες θα θέλουν να δουν κάποια ταυτότητα πριν μας επιτρέψουν να το αντλήσουμε.
Αντί να το βλέπετε αυτό ως προδοσία μιας μεμονωμένης εταιρείας, παρατηρήστε το ως ένα σήμα για το πού κατευθύνεται ολόκληρο το διαδίκτυο. Κινούμαστε προς έναν «επαληθευμένο ιστό» όπου οι ψηφιακές σας ενέργειες είναι δεμένες με τον φυσικό σας εαυτό. Το αν αυτό κάνει τον κόσμο ασφαλέστερο ή απλώς πιο περιοριστικό είναι ένα ερώτημα που θα απαντάμε για την επόμενη δεκαετία. Προς το παρόν, κρατήστε το διαβατήριό σας πρόχειρο — η ΤΝ σας μπορεί να το χρειαστεί.



Η από άκρη σε άκρη κρυπτογραφημένη λύση ηλεκτρονικού ταχυδρομείου και αποθήκευσης στο cloud παρέχει τα πιο ισχυρά μέσα ασφαλούς ανταλλαγής δεδομένων, εξασφαλίζοντας την ασφάλεια και το απόρρητο των δεδομένων σας.
/ Εγγραφείτε δωρεάν