वर्षों से, सिलिकॉन वैली के एआई अग्रदूतों और रक्षा विभाग (DoD) के बीच का रिश्ता आपसी आवश्यकता का एक नाजुक नृत्य रहा है। लेकिन फरवरी 2026 तक, वह नृत्य एक सार्वजनिक और अस्तित्व की लड़ाई में बदल गया है। इस संघर्ष के केंद्र में एंथ्रोपिक (Anthropic) है, जो सुरक्षा-केंद्रित स्टार्टअप है और अब इसका मूल्य $380 बिलियन है, और एक साधारण सा दिखने वाला तीन शब्दों का खंड जिसे पेंटागन अपने नवीनतम खरीद अनुबंधों में मांग रहा है: “any lawful use” (कोई भी वैध उपयोग)।
हालांकि यह वाक्यांश मानक कानूनी बॉयलरप्लेट जैसा लगता है, यह आधुनिक युद्ध में कृत्रिम बुद्धिमत्ता (AI) को तैनात करने के तरीके में एक मौलिक बदलाव का प्रतिनिधित्व करता है। एंथ्रोपिक के लिए, इन शर्तों से सहमत होने का मतलब उस "संवैधानिक एआई" (Constitutional AI) ढांचे को खत्म करना होगा जो इसके ब्रांड को परिभाषित करता है। पेंटागन के लिए, यह राष्ट्रीय सुरक्षा का मामला है और यह सुनिश्चित करना है कि वैश्विक हथियारों की दौड़ में अमेरिकी एआई निजी क्षेत्र की नैतिकता से बाधित न हो।
"any lawful use" का प्रावधान रक्षा विभाग के एआई एकीकरण के लिए नया स्वर्ण मानक है। संक्षेप में, इसके लिए एआई प्रदाताओं को अपनी विशिष्ट "स्वीकार्य उपयोग" नीतियों को छोड़ने की आवश्यकता होती है—वे नियम जो आमतौर पर हिंसा, निगरानी या हथियारों के विकास के लिए एआई का उपयोग करने से मना करते हैं—जब तक कि सैन्य अनुप्रयोग को अंतरराष्ट्रीय और घरेलू कानून के तहत कानूनी माना जाता है।
रिपोर्टों से संकेत मिलता है कि ओपनएआई (OpenAI) और एलन मस्क के एक्सएआई (xAI) ने इस आवश्यकता को पूरा करने के लिए अपनी सेवा की शर्तों को चुपचाप अपडेट कर दिया है। ऐसा करके, उन्होंने अपने मॉडल को "किल चेन"—लक्ष्यों की पहचान करने, ट्रैक करने और उन पर हमला करने की प्रक्रिया—में एकीकृत करने का रास्ता साफ कर दिया है। हालांकि, एंथ्रोपिक "बिग थ्री" फाउंडेशन मॉडल प्रदाताओं में एकमात्र ऐसा है जो अब भी अड़ा हुआ है, जिससे लीक हुए मेमो और तीखे सोशल मीडिया संवादों के माध्यम से हफ्तों तक चलने वाली लड़ाई छिड़ गई है।
यह समझने के लिए कि एंथ्रोपिक अपने रुख पर क्यों अड़ा है, यह देखना होगा कि इसके मॉडल कैसे बनाए जाते हैं। अन्य एलएलएम (LLMs) के विपरीत, जो मुख्य रूप से मानवीय प्रतिक्रिया के माध्यम से परिष्कृत किए जाते हैं, एंथ्रोपिक के क्लाउड (Claude) मॉडल एक "संविधान" द्वारा शासित होते हैं—लिखित सिद्धांतों का एक सेट जिसका उपयोग एआई अपने स्वयं के व्यवहार की निगरानी के लिए करता है।
यदि पेंटागन क्लाउड को सामूहिक निगरानी या, अधिक विवादास्पद रूप से, घातक स्वायत्त हथियार प्रणालियों (LAWS) के लिए डिज़ाइन किए गए सिस्टम में एकीकृत करता है, तो एआई को एक तार्किक विरोधाभास का सामना करना पड़ेगा। इसकी मूल प्रोग्रामिंग इसे नुकसान पहुँचाने या मानवाधिकारों का उल्लंघन करने में सहायता करने से रोकती है, फिर भी इसके परिचालन आदेशों के लिए ठीक उसी की आवश्यकता होगी।
"हम केवल नीति परिवर्तन की बात नहीं कर रहे हैं," एक अनाम एंथ्रोपिक इंजीनियर ने हाल ही में एक मंच पर उल्लेख किया। "हम उस सुरक्षा वास्तुकला को खत्म करने की बात कर रहे हैं जो हमारे मॉडल को वह बनाती है जो वह है। आपके पास एक 'सुरक्षित' एआई नहीं हो सकता जिसे किसी लक्ष्य को खत्म करने का स्वायत्त रूप से निर्णय लेने के लिए भी अधिकृत किया गया हो।"
सबसे महत्वपूर्ण घर्षण बिंदु उस एआई से संबंधित है जो मानव हस्तक्षेप के बिना लक्ष्यों को ट्रैक और मार सकता है। जबकि पेंटागन आधिकारिक तौर पर यह मानता है कि घातक बल का उपयोग करने का अंतिम निर्णय हमेशा मनुष्य ही लेंगे, "any lawful use" खंड भविष्य के लिए कानूनी कवर प्रदान करता है जहां गति ही प्राथमिक हथियार है। उदाहरण के लिए, ड्रोन झुंड (drone swarm) के परिदृश्य में, एक मानव ऑपरेटर व्यक्तिगत हमलों को अधिकृत करने के लिए बहुत धीमा हो सकता है, जिससे एआई को ही उस स्थिति को संभालना पड़ता है।
एंथ्रोपिक के नेतृत्व का तर्क है कि वर्तमान एआई मॉडल में वास्तविक युद्ध के मैदान की अराजकता में एक लड़ाकू और एक नागरिक के बीच अंतर करने के लिए "सामान्य ज्ञान" और स्थितिजन्य जागरूकता की कमी है। पेंटागन की शर्तों को अस्वीकार करके, एंथ्रोपिक प्रभावी रूप से यह दांव लगा रहा है कि बाजार—और जनता—अंततः कच्चे सैन्य उपयोग की तुलना में सुरक्षा को अधिक महत्व देगी।
यह गतिरोध एंथ्रोपिक के लिए एक अनिश्चित समय पर आया है। $380 बिलियन के मूल्यांकन के साथ, भारी राजस्व उत्पन्न करने का दबाव बहुत अधिक है। सरकारी अनुबंध एआई क्षेत्र में सबसे बड़ी अनछुए सोने की खान हैं। बाहर रहने से, एंथ्रोपिक को जॉइंट वारफाइटिंग क्लाउड कैपेबिलिटी (JWCC) और अन्य बहु-अरब डॉलर की पहलों से बाहर होने का जोखिम है, जिससे संभावित रूप से पूरा रक्षा बाजार ओपनएआई और एक्सएआई के पास चला जाएगा।
एंथ्रोपिक के रुख के आलोचकों का तर्क है कि यदि सबसे "नैतिक" एआई कंपनियां सेना के साथ काम करने से इनकार करती हैं, तो पेंटागन केवल कम-संरेखित मॉडल पर भरोसा करेगा, जिससे परिणाम अधिक खतरनाक होगा। हालांकि, समर्थक एंथ्रोपिक को स्वचालित युद्ध के "ब्लैक मिरर" शैली के विस्तार के खिलाफ रक्षा की अंतिम पंक्ति के रूप में देखते हैं।
यह बातचीत पूरे सॉफ्टवेयर उद्योग के लिए एक भविष्यवक्ता है। यह एआई के लिए "तेजी से आगे बढ़ें और चीजों को तोड़ें" युग के अंत और उस अवधि की शुरुआत का संकेत देता है जहां तकनीकी कंपनियों को यह तय करना होगा कि वे तटस्थ उपयोगिताएं हैं या नैतिक अभिनेता।
| विशेषता | एंथ्रोपिक की स्थिति | ओपनएआई/एक्सएआई की स्थिति |
|---|---|---|
| “Any Lawful Use” | अस्वीकृत (वर्तमान में) | स्वीकृत |
| घातक स्वायत्तता | कड़ाई से निषिद्ध | रक्षा विभाग की निगरानी में अनुमति |
| सुरक्षा तंत्र | संवैधानिक एआई (हार्ड-कोडेड) | RLHF और नीति-आधारित |
| प्राथमिक लक्ष्य | संरेखण और सुरक्षा | तीव्र स्केलिंग और उपयोगिता |
जैसे-जैसे यह लड़ाई जारी रहती है, व्यवसायों और डेवलपर्स को निम्नलिखित पर विचार करना चाहिए:
एंथ्रोपिक और पेंटागन के बीच बातचीत केवल एक अनुबंध से बढ़कर है; यह कृत्रिम बुद्धिमत्ता की आत्मा पर एक जनमत संग्रह है। जैसे-जैसे हम 2026 में आगे बढ़ेंगे, उद्योग यह देखने के लिए इंतजार करेगा कि क्या एंथ्रोपिक अपने वित्तीय भविष्य का त्याग किए बिना अपने नैतिक उच्च स्तर को बनाए रख सकता है। फिलहाल, वे तीन शब्द—"any lawful use"—सिलिकॉन वैली के इतिहास के सबसे महंगे शब्द बने हुए हैं।



हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।
/ एक नि: शुल्क खाता बनाएं