Για χρόνια, η σχέση μεταξύ των πρωτοπόρων της τεχνητής νοημοσύνης (ΤΝ) της Silicon Valley και του Υπουργείου Άμυνας των ΗΠΑ (DoD) ήταν ένας λεπτός χορός αμοιβαίας αναγκαιότητας. Αλλά από τον Φεβρουάριο του 2026, αυτός ο χορός μετατράπηκε σε μια δημόσια και υπαρξιακή διαμάχη. Στο επίκεντρο της σύγκρουσης βρίσκεται η Anthropic, η εστιασμένη στην ασφάλεια startup που πλέον αποτιμάται στο αστρονομικό ποσό των 380 δισεκατομμυρίων δολαρίων, και μια φαινομενικά απλή ρήτρα τριών λέξεων που απαιτεί το Πεντάγωνο στις τελευταίες συμβάσεις προμηθειών του: «οποιαδήποτε νόμιμη χρήση» (“any lawful use”).
Ενώ η φράση ακούγεται σαν τυπική νομική διατύπωση, αντιπροσωπεύει μια θεμελιώδη αλλαγή στον τρόπο με τον οποίο η τεχνητή νοημοσύνη θα αναπτυχθεί στον σύγχρονο πόλεμο. Για την Anthropic, η αποδοχή αυτών των όρων θα σήμαινε την αποδόμηση του ίδιου του πλαισίου της «Συνταγματικής ΤΝ» (Constitutional AI) που ορίζει την επωνυμία της. Για το Πεντάγωνο, είναι ζήτημα εθνικής ασφάλειας και διασφάλισης ότι η αμερικανική ΤΝ δεν θα παρεμποδίζεται από την ηθική του ιδιωτικού τομέα σε έναν παγκόσμιο αγώνα εξοπλισμών.
Η πρόβλεψη για «οποιαδήποτε νόμιμη χρήση» είναι το νέο χρυσό πρότυπο για την ενσωμάτωση της ΤΝ στο DoD. Στην ουσία, απαιτεί από τους παρόχους ΤΝ να παραιτηθούν από τις συγκεκριμένες πολιτικές «αποδεκτής χρήσης»—τους κανόνες που συνήθως απαγορεύουν τη χρήση της ΤΝ για βία, επιτήρηση ή ανάπτυξη όπλων—εφόσον η εφαρμογή του στρατού κρίνεται νόμιμη βάσει του διεθνούς και εγχώριου δικαίου.
Αναφορές δείχνουν ότι η OpenAI και η xAI του Elon Musk έχουν ήδη ενημερώσει αθόρυβα τους όρους παροχής υπηρεσιών τους για να συμμορφωθούν με αυτή την απαίτηση. Με αυτόν τον τρόπο, άνοιξαν τον δρόμο για την ενσωμάτωση των μοντέλων τους στην «αλυσίδα εξόντωσης» (kill chain)—τη διαδικασία εντοπισμού, παρακολούθησης και εμπλοκής στόχων. Η Anthropic, ωστόσο, παραμένει η μόνη που αντιστέκεται μεταξύ των «Τριών Μεγάλων» παρόχων μοντέλων βάσης, οδηγώντας σε μια μάχη εβδομάδων που εκτυλίσσεται μέσω διαρροών εσωτερικών σημειωμάτων και αιχμηρών ανταλλαγών στα μέσα κοινωνικής δικτύωσης.
Για να καταλάβει κανείς γιατί η Anthropic εμμένει στις θέσεις της, πρέπει να εξετάσει πώς κατασκευάζονται τα μοντέλα της. Σε αντίθεση με άλλα LLM που εκπαιδεύονται κυρίως μέσω ανθρώπινης ανατροφοδότησης, τα μοντέλα Claude της Anthropic διέπονται από ένα «Σύνταγμα»—ένα σύνολο γραπτών αρχών που χρησιμοποιεί η ΤΝ για να επιβλέπει τη δική της συμπεριφορά.
Εάν το Πεντάγωνο ενσωματώσει το Claude σε ένα σύστημα σχεδιασμένο για μαζική επιτήρηση ή, ακόμη πιο αμφιλεγόμενα, σε Φονικά Αυτόνομα Οπλικά Συστήματα (LAWS), η ΤΝ θα αντιμετώπιζε ένα λογικό παράδοξο. Ο βασικός προγραμματισμός της της απαγορεύει να βοηθά στην πρόκληση βλάβης ή στην παραβίαση των ανθρωπίνων δικαιωμάτων, ωστόσο οι επιχειρησιακές εντολές της θα απαιτούσαν ακριβώς αυτό.
«Δεν μιλάμε απλώς για μια αλλαγή πολιτικής», σημείωσε ένας ανώνυμος μηχανικός της Anthropic σε ένα πρόσφατο φόρουμ. «Μιλάμε για τη λοβοτομή της αρχιτεκτονικής ασφαλείας που κάνει το μοντέλο μας αυτό που είναι. Δεν μπορείς να έχεις μια "ασφαλή" ΤΝ που είναι ταυτόχρονα εξουσιοδοτημένη να αποφασίζει αυτόνομα την εξόντωση ενός στόχου».
Το σημαντικότερο σημείο τριβής αφορά την ΤΝ που μπορεί να εντοπίζει και να σκοτώνει στόχους χωρίς έναν άνθρωπο «στον βρόχο» (in the loop). Ενώ το Πεντάγωνο υποστηρίζει επίσημα ότι οι άνθρωποι θα λαμβάνουν πάντα την τελική απόφαση για τη χρήση θανατηφόρας βίας, η ρήτρα «οποιαδήποτε νόμιμη χρήση» παρέχει τη νομική κάλυψη για ένα μέλλον όπου η ταχύτητα είναι το πρωταρχικό όπλο. Σε ένα σενάριο σμήνους drones, για παράδειγμα, ένας ανθρώπινος χειριστής μπορεί να είναι πολύ αργός για να εγκρίνει μεμονωμένα πλήγματα, αφήνοντας την ΤΝ να διαχειριστεί την εμπλοκή.
Η ηγεσία της Anthropic υποστηρίζει ότι τα τρέχοντα μοντέλα ΤΝ στερούνται την «κοινή λογική» και την επίγνωση της κατάστασης για να διακρίνουν μεταξύ ενός μαχητή και ενός αμάχου στο χάος ενός πραγματικού πεδίου μάχης. Αρνούμενη τους όρους του Πενταγώνου, η Anthropic ουσιαστικά στοιχηματίζει ότι η αγορά—και το κοινό—θα εκτιμήσουν τελικά την ασφάλεια περισσότερο από την καθαρή στρατιωτική χρησιμότητα.
Το αδιέξοδο έρχεται σε μια κρίσιμη στιγμή για την Anthropic. Με αποτίμηση 380 δισεκατομμυρίων δολαρίων, η πίεση για τη δημιουργία τεράστιων εσόδων είναι τεράστια. Οι κυβερνητικές συμβάσεις είναι το μεγαλύτερο ανεκμετάλλευτο χρυσωρυχείο στον τομέα της ΤΝ. Με την άρνησή της, η Anthropic κινδυνεύει να αποκλειστεί από το Joint Warfighting Cloud Capability (JWCC) και άλλες πρωτοβουλίες δισεκατομμυρίων δολαρίων, παραχωρώντας ενδεχομένως ολόκληρη την αμυντική αγορά στην OpenAI και την xAI.
Οι επικριτές της στάσης της Anthropic υποστηρίζουν ότι εάν οι πιο «ηθικές» εταιρείες ΤΝ αρνηθούν να συνεργαστούν με τον στρατό, το Πεντάγωνο θα βασιστεί απλώς σε λιγότερο ευθυγραμμισμένα μοντέλα, οδηγώντας σε ένα πιο επικίνδυνο αποτέλεσμα. Οι υποστηρικτές, ωστόσο, βλέπουν την Anthropic ως την τελευταία γραμμή άμυνας ενάντια σε μια κλιμάκωση του αυτοματοποιημένου πολέμου τύπου «Black Mirror».
Αυτή η διαπραγμάτευση είναι ένας προάγγελος για ολόκληρη τη βιομηχανία λογισμικού. Σηματοδοτεί το τέλος της εποχής του «κινήσου γρήγορα και σπάσε πράγματα» για την ΤΝ και την αρχή μιας περιόδου όπου οι εταιρείες τεχνολογίας πρέπει να αποφασίσουν αν είναι ουδέτερες υπηρεσίες κοινής ωφέλειας ή ηθικοί δρώντες.
| Χαρακτηριστικό | Θέση Anthropic | Θέση OpenAI/xAI |
|---|---|---|
| «Οποιαδήποτε Νόμιμη Χρήση» | Απορρίφθηκε (Επί του παρόντος) | Αποδεκτή |
| Φονική Αυτονομία | Αυστηρά Απαγορευμένη | Επιτρέπεται υπό την επίβλεψη του DoD |
| Μηχανισμός Ασφαλείας | Συνταγματική ΤΝ (Ενσωματωμένη) | RLHF & Βάσει Πολιτικής |
| Πρωταρχικός Στόχος | Ευθυγράμμιση & Ασφάλεια | Ταχεία Κλιμάκωση & Χρηστικότητα |
Καθώς αυτή η μάχη συνεχίζει να εξελίσσεται, οι επιχειρήσεις και οι προγραμματιστές θα πρέπει να λάβουν υπόψη τα εξής:
Οι διαπραγματεύσεις μεταξύ της Anthropic και του Πενταγώνου αφορούν κάτι περισσότερο από μια απλή σύμβαση· είναι ένα δημοψήφισμα για την ψυχή της τεχνητής νοημοσύνης. Καθώς προχωράμε βαθύτερα στο 2026, ο κλάδος θα παρακολουθεί για να δει αν η Anthropic μπορεί να διατηρήσει το ηθικό της πλεονέκτημα χωρίς να θυσιάσει το οικονομικό της μέλλον. Προς το παρόν, αυτές οι τρεις λέξεις—«οποιαδήποτε νόμιμη χρήση»—παραμένουν οι πιο ακριβές λέξεις στην ιστορία της Silicon Valley.



Η από άκρη σε άκρη κρυπτογραφημένη λύση ηλεκτρονικού ταχυδρομείου και αποθήκευσης στο cloud παρέχει τα πιο ισχυρά μέσα ασφαλούς ανταλλαγής δεδομένων, εξασφαλίζοντας την ασφάλεια και το απόρρητο των δεδομένων σας.
/ Εγγραφείτε δωρεάν