कृत्रिम बुद्धिमत्ता

स्वायत्तता की नैतिकता: क्यों एंथ्रोपिक एआई सुरक्षा को लेकर $200 मिलियन के पेंटागन अनुबंध को जोखिम में डाल रहा है

एंथ्रोपिक ने क्लॉड के एआई सुरक्षा सुरक्षा घेरे को हटाने की पेंटागन की मांग को खारिज कर दिया है, जिससे नैतिक चिंताओं और राष्ट्रीय सुरक्षा जोखिमों के कारण $200 मिलियन का अनुबंध खतरे में पड़ गया है।
स्वायत्तता की नैतिकता: क्यों एंथ्रोपिक एआई सुरक्षा को लेकर $200 मिलियन के पेंटागन अनुबंध को जोखिम में डाल रहा है

सिलिकॉन वैली के नैतिक ढांचे और रक्षा विभाग की रणनीतिक मांगों के बीच तनाव चरम पर पहुंच गया है। गुरुवार को, क्लॉड मॉडल के पीछे की एआई सुरक्षा-केंद्रित फर्म एंथ्रोपिक (Anthropic) ने पेंटागन की उस मांग को स्पष्ट रूप से खारिज कर दिया, जो इसकी कृत्रिम बुद्धिमत्ता (AI) की संरचना को मौलिक रूप से बदल देती।

इस विवाद के केंद्र में $200 मिलियन का अनुबंध और रक्षा सचिव पीट हेगसेथ का एक अनुरोध है जिसमें क्लॉड के व्यवहार को नियंत्रित करने वाले सुरक्षा 'गार्डरेल्स' (guardrails) को हटाने की बात कही गई है। एंथ्रोपिक के नेतृत्व ने कहा कि वे "शुद्ध अंतःकरण के साथ" इसका पालन नहीं कर सकते, जिससे राष्ट्रीय सुरक्षा में निजी तकनीक की भूमिका पर एक ऐतिहासिक टकराव का मंच तैयार हो गया है।

$200 मिलियन का अल्टीमेटम

यह संघर्ष एक बड़े खरीद सौदे पर केंद्रित है जिसका उद्देश्य क्लॉड की उन्नत तर्क क्षमताओं को सैन्य रसद और रणनीतिक योजना में एकीकृत करना है। हालांकि, पेंटागन का वर्तमान नेतृत्व वाणिज्यिक एआई की प्रतिबंधात्मक प्रकृति से तेजी से निराश हो गया है।

रक्षा सचिव पीट हेगसेथ ने इन सुरक्षा प्रोटोकॉल को 'हथकड़ी' के रूप में वर्णित किया है जो अमेरिकी सेना को उन विरोधियों के खिलाफ प्रतिस्पर्धात्मक बढ़त बनाए रखने से रोकते हैं जो समान नैतिक बाधाओं से बंधे नहीं हो सकते हैं। अल्टीमेटम स्पष्ट है: या तो एंथ्रोपिक क्लॉड का एक 'निर्बाध' (unfettered) संस्करण प्रदान करे—जो सुरक्षा फिल्टर द्वारा अवरुद्ध हुए बिना सामरिक सलाह या घातक रणनीतियां उत्पन्न करने में सक्षम हो—या अनुबंध समाप्त कर दिया जाएगा।

'निर्बाध पहुंच' का वास्तव में क्या अर्थ है

यह समझने के लिए कि एंथ्रोपिक इतनी बड़ी राशि को छोड़ने के लिए क्यों तैयार है, यह समझना होगा कि ये सुरक्षा जांच क्या करती हैं। लार्ज लैंग्वेज मॉडल्स (LLMs) की दुनिया में, गार्डरेल्स केवल साधारण कीवर्ड फिल्टर नहीं हैं। वे प्रशिक्षण की गहराई से एकीकृत परतें हैं, जिन्हें अक्सर 'संवैधानिक एआई' (Constitutional AI) कहा जाता है।

ये परतें मॉडल को जैविक हथियारों के निर्माण में सहायता करने, घृणास्पद भाषण उत्पन्न करने या साइबर हमलों के लिए निर्देश प्रदान करने से रोकती हैं। सेना के लिए इन जांचों को हटाने से अनिवार्य रूप से मॉडल का एक 'जेलब्रोकन' (jailbroken) संस्करण बन जाएगा। जबकि पेंटागन का तर्क है कि उच्च-दांव वाले निर्णय लेने के लिए यह आवश्यक है जहां एआई को कमांडर को 'उपदेश' नहीं देना चाहिए, एंथ्रोपिक को डर है कि सीमाओं के बिना एक मॉडल का दुरुपयोग किया जा सकता है या वह अप्रत्याशित रूप से व्यवहार कर सकता है जिससे विनाशकारी वास्तविक दुनिया को नुकसान हो सकता है।

'शुद्ध अंतःकरण' का तर्क

एंथ्रोपिक की प्रतिक्रिया उसके स्थापना मिशन में निहित है। अपने कई प्रतिस्पर्धियों के विपरीत, एंथ्रोपिक को विशेष रूप से विनाशकारी एआई विफलता के जोखिमों को दूर करने के लिए बनाया गया था। अपने आधिकारिक बयान में, कंपनी ने जोर दिया कि उनके सुरक्षा प्रोटोकॉल 'राजनीतिक शुद्धता' नहीं हैं, बल्कि आवश्यक तकनीकी सुरक्षा उपाय हैं जिन्हें यह सुनिश्चित करने के लिए डिज़ाइन किया गया है कि एआई सहायक, हानिरहित और ईमानदार रहे।

"हमारे सुरक्षा प्रोटोकॉल वैकल्पिक विशेषताएं नहीं हैं; वे मॉडल की विश्वसनीयता की नींव हैं। उन्हें हटाना एक ऐसे उपकरण को जारी करना होगा जिसकी हम अब गारंटी नहीं दे सकते कि वह उपयोग के लिए सुरक्षित है, यहां तक कि एक नियंत्रित सैन्य वातावरण में भी।"

'अंतःकरण' का आह्वान करके, एंथ्रोपिक यह संकेत दे रहा है कि यह कीमत या सुविधाओं पर बातचीत नहीं है, बल्कि युद्ध में स्वायत्त प्रणालियों की नैतिकता पर एक मौलिक असहमति है।

एआई गवर्नेंस दृष्टिकोणों की तुलना

नीचे दी गई तालिका पेंटागन की आवश्यकताओं और एंथ्रोपिक की वर्तमान सुरक्षा वास्तुकला के बीच के अंतर को उजागर करती है।

विशेषता पेंटागन की मांग (निर्बाध) एंथ्रोपिक मानक (क्लॉड)
परिचालन गति रीयल-टाइम, कोई फ़िल्टर विलंबता नहीं सुरक्षा जांच मिलीसेकंड विलंबता जोड़ती है
सामग्री फ़िल्टरिंग सामरिक परिदृश्यों के लिए अक्षम हानिकारक/अवैध सामग्री के लिए सक्रिय
मॉडल संरेखण कड़ाई से मिशन लक्ष्यों के अनुरूप 'संवैधानिक' सुरक्षा सिद्धांतों के अनुरूप
जोखिम सहनशीलता उच्च (रणनीतिक आवश्यकता) कम (सार्वजनिक और अस्तित्वगत सुरक्षा)
जवाबदेही केवल ह्यूमन-इन-द-लूप अंतर्निहित तकनीकी बाधाएं

सिलिकॉन वैली में व्यापक प्रभाव

इस गतिरोध को ओपनएआई (OpenAI) और गूगल (Google) जैसे अन्य एआई दिग्गजों द्वारा बारीकी से देखा जा रहा है। यदि एंथ्रोपिक अनुबंध खो देता है, तो यह एक शून्य पैदा करता है जिसे अधिक अनुपालन करने वाली फर्म भर सकती है। हालांकि, यह इस बात के लिए एक मिसाल भी कायम करता है कि तकनीकी कंपनियां अपने उत्पादों को हथियार बनाने या 'असुरक्षित' करने के सरकारी दबाव का विरोध कैसे कर सकती हैं।

व्यापक तकनीकी उद्योग के लिए, यह बढ़ते 'दोहरे उपयोग' (dual-use) की दुविधा को उजागर करता है। नागरिक उत्पादकता के लिए डिज़ाइन किए गए सॉफ़्टवेयर को सैन्य कार्रवाई के लिए पुन: उपयोग किया जा सकता है। जब उस सॉफ़्टवेयर का डेवलपर इस बात पर नियंत्रण खो देता है कि मॉडल कैसे सोचता है, तो अनपेक्षित परिणामों की संभावना—जैसे कि एआई द्वारा तनाव बढ़ाने के लिए किसी कारण का भ्रम (hallucination) पैदा करना—तेजी से बढ़ जाती है।

तकनीकी नेताओं के लिए व्यावहारिक सुझाव

जैसे-जैसे एआई सरकार और उच्च-दांव वाले बुनियादी ढांचे में अधिक एकीकृत होता जा रहा है, डेवलपर्स और अधिकारियों को निम्नलिखित पर विचार करना चाहिए:

  • शुरुआत में ही रेड लाइन्स परिभाषित करें: कंपनियों को सरकारी बातचीत में प्रवेश करने से पहले यह स्थापित करना चाहिए कि वे अपने एआई को क्या करने की अनुमति देंगे और क्या नहीं।
  • संरेखण में पारदर्शिता: हितधारकों के साथ स्पष्ट रहें कि 'संवैधानिक एआई' या RLHF (मानव प्रतिक्रिया से सुदृढीकरण सीखना) मॉडल के आउटपुट को कैसे प्रभावित करता है।
  • अनुबंधात्मक सुरक्षा उपाय: सुनिश्चित करें कि अनुबंधों में ऐसे खंड शामिल हों जो तत्काल समाप्ति के डर के बिना सुरक्षा मानकों को बनाए रखने के डेवलपर के अधिकार की रक्षा करते हों।
  • अखंडता की लागत: इस वित्तीय वास्तविकता के लिए तैयार रहें कि नैतिक मानकों को बनाए रखने के परिणामस्वरूप आकर्षक, उच्च-दबाव वाले सरकारी सौदों का नुकसान हो सकता है।

आगे क्या होगा?

यदि पेंटागन अनुबंध रद्द करने की अपनी धमकी पर अमल करता है, तो एंथ्रोपिक को राजस्व के एक बड़े अंतर का सामना करना पड़ेगा, लेकिन 'सुरक्षा-प्रथम' एआई फर्म के रूप में उसकी प्रतिष्ठा संभवतः मजबूत होगी। इस बीच, रक्षा विभाग अपने स्वयं के आंतरिक मॉडल बनाने या छोटे, अधिक विशिष्ट रक्षा-तकनीक स्टार्टअप के साथ साझेदारी करने की ओर देख सकता है जो वाणिज्यिक उत्पादों में पाए जाने वाले कड़े सुरक्षा घेरे के बिना मॉडल बनाने के इच्छुक हैं।

यह टकराव संभवतः कई में से पहला है क्योंकि कृत्रिम बुद्धिमत्ता के युग में नागरिक प्रौद्योगिकी और सैन्य क्षमता के बीच की रेखा धुंधली होती जा रही है।

स्रोत

  • एंथ्रोपिक आधिकारिक ब्लॉग: कंपनी मिशन और सुरक्षा मानक (Anthropic Official Blog: Company Mission and Safety Standards)
  • रक्षा विभाग: एआई अपनाने और एकीकरण की रणनीति (Department of Defense: AI Adoption and Integration Strategy)
  • रॉयटर्स: टेक और रक्षा अनुबंध संबंधी विवाद (Reuters: Tech and Defense Contractual Disputes)
  • वायर्ड: संवैधानिक एआई का उदय (Wired: The Rise of Constitutional AI)
bg
bg
bg

आप दूसरी तरफ देखिए।

हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।

/ एक नि: शुल्क खाता बनाएं