कृत्रिम बुद्धिमत्ता

तीन शब्दों का अल्टीमेटम: पेंटागन के साथ एंथ्रोपिक के हाई-स्टेक्स गतिरोध के अंदर की कहानी

पेंटागन के साथ एंथ्रोपिक के 'any lawful use' खंड पर गतिरोध और $380B एआई उद्योग में घातक स्वायत्त हथियारों के भविष्य पर एक विस्तृत रिपोर्ट।
तीन शब्दों का अल्टीमेटम: पेंटागन के साथ एंथ्रोपिक के हाई-स्टेक्स गतिरोध के अंदर की कहानी

वर्षों से, सिलिकॉन वैली के एआई अग्रदूतों और रक्षा विभाग (DoD) के बीच का रिश्ता आपसी आवश्यकता का एक नाजुक नृत्य रहा है। लेकिन फरवरी 2026 तक, वह नृत्य एक सार्वजनिक और अस्तित्व की लड़ाई में बदल गया है। इस संघर्ष के केंद्र में एंथ्रोपिक (Anthropic) है, जो सुरक्षा-केंद्रित स्टार्टअप है और अब इसका मूल्य $380 बिलियन है, और एक साधारण सा दिखने वाला तीन शब्दों का खंड जिसे पेंटागन अपने नवीनतम खरीद अनुबंधों में मांग रहा है: “any lawful use” (कोई भी वैध उपयोग)।

हालांकि यह वाक्यांश मानक कानूनी बॉयलरप्लेट जैसा लगता है, यह आधुनिक युद्ध में कृत्रिम बुद्धिमत्ता (AI) को तैनात करने के तरीके में एक मौलिक बदलाव का प्रतिनिधित्व करता है। एंथ्रोपिक के लिए, इन शर्तों से सहमत होने का मतलब उस "संवैधानिक एआई" (Constitutional AI) ढांचे को खत्म करना होगा जो इसके ब्रांड को परिभाषित करता है। पेंटागन के लिए, यह राष्ट्रीय सुरक्षा का मामला है और यह सुनिश्चित करना है कि वैश्विक हथियारों की दौड़ में अमेरिकी एआई निजी क्षेत्र की नैतिकता से बाधित न हो।

वह खंड जिसने सब कुछ बदल दिया

"any lawful use" का प्रावधान रक्षा विभाग के एआई एकीकरण के लिए नया स्वर्ण मानक है। संक्षेप में, इसके लिए एआई प्रदाताओं को अपनी विशिष्ट "स्वीकार्य उपयोग" नीतियों को छोड़ने की आवश्यकता होती है—वे नियम जो आमतौर पर हिंसा, निगरानी या हथियारों के विकास के लिए एआई का उपयोग करने से मना करते हैं—जब तक कि सैन्य अनुप्रयोग को अंतरराष्ट्रीय और घरेलू कानून के तहत कानूनी माना जाता है।

रिपोर्टों से संकेत मिलता है कि ओपनएआई (OpenAI) और एलन मस्क के एक्सएआई (xAI) ने इस आवश्यकता को पूरा करने के लिए अपनी सेवा की शर्तों को चुपचाप अपडेट कर दिया है। ऐसा करके, उन्होंने अपने मॉडल को "किल चेन"—लक्ष्यों की पहचान करने, ट्रैक करने और उन पर हमला करने की प्रक्रिया—में एकीकृत करने का रास्ता साफ कर दिया है। हालांकि, एंथ्रोपिक "बिग थ्री" फाउंडेशन मॉडल प्रदाताओं में एकमात्र ऐसा है जो अब भी अड़ा हुआ है, जिससे लीक हुए मेमो और तीखे सोशल मीडिया संवादों के माध्यम से हफ्तों तक चलने वाली लड़ाई छिड़ गई है।

संवैधानिक एआई बनाम युद्ध का मैदान

यह समझने के लिए कि एंथ्रोपिक अपने रुख पर क्यों अड़ा है, यह देखना होगा कि इसके मॉडल कैसे बनाए जाते हैं। अन्य एलएलएम (LLMs) के विपरीत, जो मुख्य रूप से मानवीय प्रतिक्रिया के माध्यम से परिष्कृत किए जाते हैं, एंथ्रोपिक के क्लाउड (Claude) मॉडल एक "संविधान" द्वारा शासित होते हैं—लिखित सिद्धांतों का एक सेट जिसका उपयोग एआई अपने स्वयं के व्यवहार की निगरानी के लिए करता है।

यदि पेंटागन क्लाउड को सामूहिक निगरानी या, अधिक विवादास्पद रूप से, घातक स्वायत्त हथियार प्रणालियों (LAWS) के लिए डिज़ाइन किए गए सिस्टम में एकीकृत करता है, तो एआई को एक तार्किक विरोधाभास का सामना करना पड़ेगा। इसकी मूल प्रोग्रामिंग इसे नुकसान पहुँचाने या मानवाधिकारों का उल्लंघन करने में सहायता करने से रोकती है, फिर भी इसके परिचालन आदेशों के लिए ठीक उसी की आवश्यकता होगी।

"हम केवल नीति परिवर्तन की बात नहीं कर रहे हैं," एक अनाम एंथ्रोपिक इंजीनियर ने हाल ही में एक मंच पर उल्लेख किया। "हम उस सुरक्षा वास्तुकला को खत्म करने की बात कर रहे हैं जो हमारे मॉडल को वह बनाती है जो वह है। आपके पास एक 'सुरक्षित' एआई नहीं हो सकता जिसे किसी लक्ष्य को खत्म करने का स्वायत्त रूप से निर्णय लेने के लिए भी अधिकृत किया गया हो।"

घातक स्वायत्त हथियारों का उदय

सबसे महत्वपूर्ण घर्षण बिंदु उस एआई से संबंधित है जो मानव हस्तक्षेप के बिना लक्ष्यों को ट्रैक और मार सकता है। जबकि पेंटागन आधिकारिक तौर पर यह मानता है कि घातक बल का उपयोग करने का अंतिम निर्णय हमेशा मनुष्य ही लेंगे, "any lawful use" खंड भविष्य के लिए कानूनी कवर प्रदान करता है जहां गति ही प्राथमिक हथियार है। उदाहरण के लिए, ड्रोन झुंड (drone swarm) के परिदृश्य में, एक मानव ऑपरेटर व्यक्तिगत हमलों को अधिकृत करने के लिए बहुत धीमा हो सकता है, जिससे एआई को ही उस स्थिति को संभालना पड़ता है।

एंथ्रोपिक के नेतृत्व का तर्क है कि वर्तमान एआई मॉडल में वास्तविक युद्ध के मैदान की अराजकता में एक लड़ाकू और एक नागरिक के बीच अंतर करने के लिए "सामान्य ज्ञान" और स्थितिजन्य जागरूकता की कमी है। पेंटागन की शर्तों को अस्वीकार करके, एंथ्रोपिक प्रभावी रूप से यह दांव लगा रहा है कि बाजार—और जनता—अंततः कच्चे सैन्य उपयोग की तुलना में सुरक्षा को अधिक महत्व देगी।

$380 बिलियन की दुविधा

यह गतिरोध एंथ्रोपिक के लिए एक अनिश्चित समय पर आया है। $380 बिलियन के मूल्यांकन के साथ, भारी राजस्व उत्पन्न करने का दबाव बहुत अधिक है। सरकारी अनुबंध एआई क्षेत्र में सबसे बड़ी अनछुए सोने की खान हैं। बाहर रहने से, एंथ्रोपिक को जॉइंट वारफाइटिंग क्लाउड कैपेबिलिटी (JWCC) और अन्य बहु-अरब डॉलर की पहलों से बाहर होने का जोखिम है, जिससे संभावित रूप से पूरा रक्षा बाजार ओपनएआई और एक्सएआई के पास चला जाएगा।

एंथ्रोपिक के रुख के आलोचकों का तर्क है कि यदि सबसे "नैतिक" एआई कंपनियां सेना के साथ काम करने से इनकार करती हैं, तो पेंटागन केवल कम-संरेखित मॉडल पर भरोसा करेगा, जिससे परिणाम अधिक खतरनाक होगा। हालांकि, समर्थक एंथ्रोपिक को स्वचालित युद्ध के "ब्लैक मिरर" शैली के विस्तार के खिलाफ रक्षा की अंतिम पंक्ति के रूप में देखते हैं।

तकनीकी उद्योग के लिए इसका क्या अर्थ है

यह बातचीत पूरे सॉफ्टवेयर उद्योग के लिए एक भविष्यवक्ता है। यह एआई के लिए "तेजी से आगे बढ़ें और चीजों को तोड़ें" युग के अंत और उस अवधि की शुरुआत का संकेत देता है जहां तकनीकी कंपनियों को यह तय करना होगा कि वे तटस्थ उपयोगिताएं हैं या नैतिक अभिनेता।

विशेषता एंथ्रोपिक की स्थिति ओपनएआई/एक्सएआई की स्थिति
“Any Lawful Use” अस्वीकृत (वर्तमान में) स्वीकृत
घातक स्वायत्तता कड़ाई से निषिद्ध रक्षा विभाग की निगरानी में अनुमति
सुरक्षा तंत्र संवैधानिक एआई (हार्ड-कोडेड) RLHF और नीति-आधारित
प्राथमिक लक्ष्य संरेखण और सुरक्षा तीव्र स्केलिंग और उपयोगिता

एआई हितधारकों के लिए व्यावहारिक सुझाव

जैसे-जैसे यह लड़ाई जारी रहती है, व्यवसायों और डेवलपर्स को निम्नलिखित पर विचार करना चाहिए:

  • अपनी निर्भरताओं की समीक्षा करें: यदि आपका एंटरप्राइज सॉफ्टवेयर क्लाउड पर निर्भर करता है, तो ध्यान रखें कि एंथ्रोपिक द्वारा रक्षा अनुबंधों से इनकार करने से इसकी दीर्घकालिक पूंजी पहुंच प्रभावित हो सकती है या इसके बिजनेस मॉडल में बदलाव आ सकता है।
  • नियामक बदलाव पर नजर रखें: इस गतिरोध का परिणाम भविष्य के एआई नियमों को प्रभावित करने की संभावना है। यदि रक्षा विभाग जीतता है, तो उम्मीद करें कि "any lawful use" सभी सरकार-संबंधित तकनीक के लिए एक मानक आवश्यकता बन जाएगी।
  • प्रतिस्पर्धात्मक लाभ के रूप में नैतिकता: नागरिक क्षेत्र की कंपनियों के लिए, एंथ्रोपिक का रुख "सुरक्षित" विकल्प के रूप में इसकी स्थिति को मजबूत करता है, जो स्वास्थ्य सेवा, कानूनी और शिक्षा क्षेत्रों के लिए अधिक आकर्षक हो सकता है।

आगे का रास्ता

एंथ्रोपिक और पेंटागन के बीच बातचीत केवल एक अनुबंध से बढ़कर है; यह कृत्रिम बुद्धिमत्ता की आत्मा पर एक जनमत संग्रह है। जैसे-जैसे हम 2026 में आगे बढ़ेंगे, उद्योग यह देखने के लिए इंतजार करेगा कि क्या एंथ्रोपिक अपने वित्तीय भविष्य का त्याग किए बिना अपने नैतिक उच्च स्तर को बनाए रख सकता है। फिलहाल, वे तीन शब्द—"any lawful use"—सिलिकॉन वैली के इतिहास के सबसे महंगे शब्द बने हुए हैं।

स्रोत

  • Anthropic Official Safety Policy and Constitutional AI Documentation
  • Department of Defense AI Adoption Strategy (2025-2026 Update)
  • Reports on OpenAI and xAI Government Contract Amendments
  • International Committee of the Red Cross (ICRC) Position on Autonomous Weapons
bg
bg
bg

आप दूसरी तरफ देखिए।

हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।

/ एक नि: शुल्क खाता बनाएं