सिलिकॉन वैली के नैतिक ढांचे और रक्षा विभाग की रणनीतिक मांगों के बीच तनाव चरम पर पहुंच गया है। गुरुवार को, क्लॉड मॉडल के पीछे की एआई सुरक्षा-केंद्रित फर्म एंथ्रोपिक (Anthropic) ने पेंटागन की उस मांग को स्पष्ट रूप से खारिज कर दिया, जो इसकी कृत्रिम बुद्धिमत्ता (AI) की संरचना को मौलिक रूप से बदल देती।
इस विवाद के केंद्र में $200 मिलियन का अनुबंध और रक्षा सचिव पीट हेगसेथ का एक अनुरोध है जिसमें क्लॉड के व्यवहार को नियंत्रित करने वाले सुरक्षा 'गार्डरेल्स' (guardrails) को हटाने की बात कही गई है। एंथ्रोपिक के नेतृत्व ने कहा कि वे "शुद्ध अंतःकरण के साथ" इसका पालन नहीं कर सकते, जिससे राष्ट्रीय सुरक्षा में निजी तकनीक की भूमिका पर एक ऐतिहासिक टकराव का मंच तैयार हो गया है।
यह संघर्ष एक बड़े खरीद सौदे पर केंद्रित है जिसका उद्देश्य क्लॉड की उन्नत तर्क क्षमताओं को सैन्य रसद और रणनीतिक योजना में एकीकृत करना है। हालांकि, पेंटागन का वर्तमान नेतृत्व वाणिज्यिक एआई की प्रतिबंधात्मक प्रकृति से तेजी से निराश हो गया है।
रक्षा सचिव पीट हेगसेथ ने इन सुरक्षा प्रोटोकॉल को 'हथकड़ी' के रूप में वर्णित किया है जो अमेरिकी सेना को उन विरोधियों के खिलाफ प्रतिस्पर्धात्मक बढ़त बनाए रखने से रोकते हैं जो समान नैतिक बाधाओं से बंधे नहीं हो सकते हैं। अल्टीमेटम स्पष्ट है: या तो एंथ्रोपिक क्लॉड का एक 'निर्बाध' (unfettered) संस्करण प्रदान करे—जो सुरक्षा फिल्टर द्वारा अवरुद्ध हुए बिना सामरिक सलाह या घातक रणनीतियां उत्पन्न करने में सक्षम हो—या अनुबंध समाप्त कर दिया जाएगा।
यह समझने के लिए कि एंथ्रोपिक इतनी बड़ी राशि को छोड़ने के लिए क्यों तैयार है, यह समझना होगा कि ये सुरक्षा जांच क्या करती हैं। लार्ज लैंग्वेज मॉडल्स (LLMs) की दुनिया में, गार्डरेल्स केवल साधारण कीवर्ड फिल्टर नहीं हैं। वे प्रशिक्षण की गहराई से एकीकृत परतें हैं, जिन्हें अक्सर 'संवैधानिक एआई' (Constitutional AI) कहा जाता है।
ये परतें मॉडल को जैविक हथियारों के निर्माण में सहायता करने, घृणास्पद भाषण उत्पन्न करने या साइबर हमलों के लिए निर्देश प्रदान करने से रोकती हैं। सेना के लिए इन जांचों को हटाने से अनिवार्य रूप से मॉडल का एक 'जेलब्रोकन' (jailbroken) संस्करण बन जाएगा। जबकि पेंटागन का तर्क है कि उच्च-दांव वाले निर्णय लेने के लिए यह आवश्यक है जहां एआई को कमांडर को 'उपदेश' नहीं देना चाहिए, एंथ्रोपिक को डर है कि सीमाओं के बिना एक मॉडल का दुरुपयोग किया जा सकता है या वह अप्रत्याशित रूप से व्यवहार कर सकता है जिससे विनाशकारी वास्तविक दुनिया को नुकसान हो सकता है।
एंथ्रोपिक की प्रतिक्रिया उसके स्थापना मिशन में निहित है। अपने कई प्रतिस्पर्धियों के विपरीत, एंथ्रोपिक को विशेष रूप से विनाशकारी एआई विफलता के जोखिमों को दूर करने के लिए बनाया गया था। अपने आधिकारिक बयान में, कंपनी ने जोर दिया कि उनके सुरक्षा प्रोटोकॉल 'राजनीतिक शुद्धता' नहीं हैं, बल्कि आवश्यक तकनीकी सुरक्षा उपाय हैं जिन्हें यह सुनिश्चित करने के लिए डिज़ाइन किया गया है कि एआई सहायक, हानिरहित और ईमानदार रहे।
"हमारे सुरक्षा प्रोटोकॉल वैकल्पिक विशेषताएं नहीं हैं; वे मॉडल की विश्वसनीयता की नींव हैं। उन्हें हटाना एक ऐसे उपकरण को जारी करना होगा जिसकी हम अब गारंटी नहीं दे सकते कि वह उपयोग के लिए सुरक्षित है, यहां तक कि एक नियंत्रित सैन्य वातावरण में भी।"
'अंतःकरण' का आह्वान करके, एंथ्रोपिक यह संकेत दे रहा है कि यह कीमत या सुविधाओं पर बातचीत नहीं है, बल्कि युद्ध में स्वायत्त प्रणालियों की नैतिकता पर एक मौलिक असहमति है।
नीचे दी गई तालिका पेंटागन की आवश्यकताओं और एंथ्रोपिक की वर्तमान सुरक्षा वास्तुकला के बीच के अंतर को उजागर करती है।
| विशेषता | पेंटागन की मांग (निर्बाध) | एंथ्रोपिक मानक (क्लॉड) |
|---|---|---|
| परिचालन गति | रीयल-टाइम, कोई फ़िल्टर विलंबता नहीं | सुरक्षा जांच मिलीसेकंड विलंबता जोड़ती है |
| सामग्री फ़िल्टरिंग | सामरिक परिदृश्यों के लिए अक्षम | हानिकारक/अवैध सामग्री के लिए सक्रिय |
| मॉडल संरेखण | कड़ाई से मिशन लक्ष्यों के अनुरूप | 'संवैधानिक' सुरक्षा सिद्धांतों के अनुरूप |
| जोखिम सहनशीलता | उच्च (रणनीतिक आवश्यकता) | कम (सार्वजनिक और अस्तित्वगत सुरक्षा) |
| जवाबदेही | केवल ह्यूमन-इन-द-लूप | अंतर्निहित तकनीकी बाधाएं |
इस गतिरोध को ओपनएआई (OpenAI) और गूगल (Google) जैसे अन्य एआई दिग्गजों द्वारा बारीकी से देखा जा रहा है। यदि एंथ्रोपिक अनुबंध खो देता है, तो यह एक शून्य पैदा करता है जिसे अधिक अनुपालन करने वाली फर्म भर सकती है। हालांकि, यह इस बात के लिए एक मिसाल भी कायम करता है कि तकनीकी कंपनियां अपने उत्पादों को हथियार बनाने या 'असुरक्षित' करने के सरकारी दबाव का विरोध कैसे कर सकती हैं।
व्यापक तकनीकी उद्योग के लिए, यह बढ़ते 'दोहरे उपयोग' (dual-use) की दुविधा को उजागर करता है। नागरिक उत्पादकता के लिए डिज़ाइन किए गए सॉफ़्टवेयर को सैन्य कार्रवाई के लिए पुन: उपयोग किया जा सकता है। जब उस सॉफ़्टवेयर का डेवलपर इस बात पर नियंत्रण खो देता है कि मॉडल कैसे सोचता है, तो अनपेक्षित परिणामों की संभावना—जैसे कि एआई द्वारा तनाव बढ़ाने के लिए किसी कारण का भ्रम (hallucination) पैदा करना—तेजी से बढ़ जाती है।
जैसे-जैसे एआई सरकार और उच्च-दांव वाले बुनियादी ढांचे में अधिक एकीकृत होता जा रहा है, डेवलपर्स और अधिकारियों को निम्नलिखित पर विचार करना चाहिए:
यदि पेंटागन अनुबंध रद्द करने की अपनी धमकी पर अमल करता है, तो एंथ्रोपिक को राजस्व के एक बड़े अंतर का सामना करना पड़ेगा, लेकिन 'सुरक्षा-प्रथम' एआई फर्म के रूप में उसकी प्रतिष्ठा संभवतः मजबूत होगी। इस बीच, रक्षा विभाग अपने स्वयं के आंतरिक मॉडल बनाने या छोटे, अधिक विशिष्ट रक्षा-तकनीक स्टार्टअप के साथ साझेदारी करने की ओर देख सकता है जो वाणिज्यिक उत्पादों में पाए जाने वाले कड़े सुरक्षा घेरे के बिना मॉडल बनाने के इच्छुक हैं।
यह टकराव संभवतः कई में से पहला है क्योंकि कृत्रिम बुद्धिमत्ता के युग में नागरिक प्रौद्योगिकी और सैन्य क्षमता के बीच की रेखा धुंधली होती जा रही है।



हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।
/ एक नि: शुल्क खाता बनाएं