कृत्रिम बुद्धिमत्ता

सुरक्षा के कड़े नियम हटे: एंथ्रोपिक अपने मूल वादे से क्यों पीछे हट रहा है

एंथ्रोपिक ने सुरक्षा के लिए एआई स्केलिंग को रोकने के अपने वादे को छोड़ दिया है, जो एआई दौड़ में एक बड़े बदलाव का संकेत है। जानें कि क्लाउड के भविष्य के लिए इसका क्या अर्थ है।
सुरक्षा के कड़े नियम हटे: एंथ्रोपिक अपने मूल वादे से क्यों पीछे हट रहा है

वर्षों तक, एंथ्रोपिक (Anthropic) उद्योग के अंतःकरण के रूप में खड़ा रहा। ओपनएआई (OpenAI) के पूर्व अधिकारियों द्वारा स्थापित, जो कृत्रिम सामान्य बुद्धिमत्ता (AGI) की ओर बढ़ती अंधी दौड़ से सावधान हो गए थे, इस स्टार्टअप ने "संवैधानिक एआई" (Constitutional AI) की अवधारणा पर अपना ब्रांड बनाया। यह केवल एक तकनीकी कार्यप्रणाली नहीं थी; यह एक नैतिक बिक्री पिच थी। लेकिन फरवरी 2026 के उत्तरार्ध तक, कंपनी के रुख में एक बड़ा बदलाव आया है।

इस मंगलवार को जारी एक बयान में, एंथ्रोपिक ने पुष्टि की कि वह मॉडल स्केलिंग को रोकने या तकनीकी प्रगति से सुरक्षा प्रोटोकॉल पिछड़ने पर तैनाती में देरी करने के अपने सिग्नेचर वादे को छोड़ रहा है। यह कदम उस युग के अंत का संकेत देता है जहां सुरक्षा विकास पर एक कठिन बाधा थी, और इसे विकास के लिए अधिक तरल—और यकीनन अधिक जोखिम भरे—दृष्टिकोण के साथ बदल दिया गया है।

जिम्मेदार स्केलिंग नीति (RSP) का क्षरण

इस बदलाव के केंद्र में रिस्पॉन्सिबल स्केलिंग पॉलिसी (RSP) का विकास है। जब एंथ्रोपिक ने पहली बार RSP पेश किया था, तो इसे एक ऐतिहासिक ढांचे के रूप में सराहा गया था। इसने एआई क्षमताओं को "एआई सुरक्षा स्तर" (ASL) में वर्गीकृत किया। यदि कोई मॉडल क्षमता की एक निश्चित सीमा तक पहुँच जाता है—उदाहरण के लिए, साइबर हमले में सहायता करने की क्षमता—तो नीति ने आदेश दिया कि स्केलिंग तब तक रुकनी चाहिए जब तक कि विशिष्ट सुरक्षा "चेकपॉइंट्स" पूरे न हो जाएं।

रुकने की प्रतिबद्धता को हटाकर, एंथ्रोपिक अनिवार्य रूप से आपातकालीन ब्रेक हटा रहा है। कंपनी का तर्क है कि परिदृश्य बदल गया है। बढ़ती वैश्विक प्रतिस्पर्धा और संयुक्त राज्य अमेरिका में संघीय विनियमन की निरंतर कमी के साथ, एंथ्रोपिक का सुझाव है कि एकतरफा संयम अब एक व्यवहार्य रणनीति नहीं है। यदि वे रुकते हैं, तो उनके प्रतिस्पर्धी—जिनके पास शायद कम नैतिकता हो—बस उनसे आगे निकल जाएंगे।

एआई हथियारों की दौड़ का दबाव

यह निर्णय शून्य में नहीं लिया गया है। पूरे 2025 और 2026 की शुरुआत तक, एआई क्षेत्र को "कंप्यूट वर्चस्व" के लिए एक निरंतर अभियान द्वारा परिभाषित किया गया है। एंथ्रोपिक का प्रमुख मॉडल, क्लाउड (Claude), उच्च-दांव वाले वातावरण में एक प्रमुख शक्ति बन गया है, विशेष रूप से वित्तीय मॉडलिंग और स्वचालित सॉफ्टवेयर इंजीनियरिंग में।

हालाँकि, इस सफलता ने अपने स्वयं के दबाव लाए हैं। जैसे ही क्लाउड ने अपनी भविष्यवाणिय सटीकता के साथ "वित्तीय बाजारों को उलट-पुलट" करना शुरू किया, और भी अधिक शक्तिशाली मॉडल की मांग बढ़ गई। निवेशक और उद्यम भागीदार अब "सुरक्षित लेकिन धीमी" कहानी से संतुष्ट नहीं हैं। वे उपलब्ध सबसे सक्षम उपकरण चाहते हैं, और वे इसे अभी चाहते हैं। एंथ्रोपिक का यह बदलाव इस वास्तविकता के लिए एक रियायत है कि एक अत्यधिक प्रतिस्पर्धी बाजार में, सुरक्षा को अक्सर एक विलासिता के रूप में देखा जाता है जिसे टाला जा सकता है।

पुराने और नए सुरक्षा ढांचे की तुलना

इस बदलाव की गंभीरता को समझने के लिए, यह देखना उपयोगी है कि एंथ्रोपिक का आंतरिक तर्क कैसे बदल गया है। निम्नलिखित तालिका "सुरक्षा-प्रथम" से "तैनाती-प्रथम" मुद्रा में संक्रमण को दर्शाती है।

विशेषता मूल सुरक्षा वादा नई 2026 नीति
तैनाती रणनीति सुरक्षा बेंचमार्क सत्यापित होने तक विलंबित। सुरक्षा परीक्षण और शोधन के साथ समवर्ती।
स्केलिंग बाधा सुरक्षा उपाय पिछड़ने पर कठिन ठहराव। कोई अनिवार्य ठहराव नहीं; "उपयोग के दौरान शमन" पर ध्यान।
नियामक रुख कानून के लिए एक मॉडल के रूप में सक्रिय स्व-नियमन। वैश्विक समानता की कमी का हवाला देते हुए प्रतिक्रियाशील रुख।
प्राथमिक लक्ष्य सबसे ऊपर विनाशकारी जोखिम को कम करना। प्रतिस्पर्धी बाजार स्थिति के साथ सुरक्षा को संतुलित करना।

"सॉफ्टवेयर की मृत्यु" और अनियंत्रित विकास का जोखिम

इस नीति परिवर्तन का समय विशेष रूप से संवेदनशील है। उद्योग वर्तमान में "सॉफ्टवेयर की मृत्यु" से जूझ रहा है—एक ऐसी घटना जहां एआई मॉडल कोडिंग में इतने कुशल हो गए हैं कि पारंपरिक सॉफ्टवेयर विकास जीवनचक्र ढह रहे हैं। जब एक मॉडल सेकंडों में जटिल अनुप्रयोगों को उत्पन्न, परीक्षण और तैनात कर सकता है, तो मानवीय निरीक्षण की गुंजाइश समाप्त हो जाती है।

तैनाती में देरी की आवश्यकता को हटाकर, एंथ्रोपिक अनिवार्य रूप से यह दांव लगा रहा है कि वह सुरक्षा मुद्दों को तुरंत "पैच" कर सकता है। आलोचकों का तर्क है कि यह एक खतरनाक जुआ है। यदि अप्रत्याशित क्षमताओं वाला एक मॉडल जारी किया जाता है, तो नुकसान—चाहे वह बाजार में गिरावट हो या प्रणालीगत सुरक्षा भेद्यता—सुरक्षा टीम द्वारा समस्या की पहचान करने से पहले ही हो सकता है।

एआई हितधारकों के लिए व्यावहारिक सुझाव

एंथ्रोपिक के पारिस्थितिकी तंत्र पर भरोसा करने वाले व्यवसायों और डेवलपर्स के लिए, यह नीति परिवर्तन जोखिम प्रबंधन के तरीके में बदलाव की आवश्यकता पैदा करता है। अब आप यह मानकर नहीं चल सकते कि प्रदाता द्वारा पहले के स्तर पर "सुरक्षा" सुनिश्चित की गई है।

  • स्वतंत्र ऑडिटिंग लागू करें: केवल मॉडल प्रदाता के आंतरिक सुरक्षा स्कोर पर निर्भर न रहें। महत्वपूर्ण बुनियादी ढांचे में एकीकृत करने से पहले मॉडल की रेड-टीम जांच के लिए तृतीय-पक्ष टूल का उपयोग करें।
  • ह्यूमन-इन-द-लूप सिस्टम बनाएं: जैसे ही स्रोत पर सुरक्षा कवच कम होते हैं, जिम्मेदारी उपयोगकर्ता पर आ जाती है। सुनिश्चित करें कि कोई भी एआई-जनरेटेड कोड या वित्तीय रणनीति मानवीय सत्यापन के बिना निष्पादित न हो।
  • "मॉडल ड्रिफ्ट" की निगरानी करें: तेज तैनाती चक्रों के साथ, मॉडल को अधिक बार अपडेट किया जा सकता है। प्रदर्शन और सुरक्षा के लिए एक आधार रेखा स्थापित करें ताकि यह पता लगाया जा सके कि मॉडल का व्यवहार अप्रत्याशित रूप से कब बदलता है।
  • अपने एआई स्टैक में विविधता लाएं: विक्रेता लॉक-इन से बचें। यदि एक प्रदाता का सुरक्षा प्रोफाइल आपके संगठन के अनुपालन मानकों के लिए बहुत जोखिम भरा हो जाता है, तो आपको जल्दी से दूसरे मॉडल पर स्विच करने में सक्षम होना चाहिए।

भविष्य: जिम्मेदारी की एक नई परिभाषा

अपने सिग्नेचर वादे से एंथ्रोपिक का पीछे हटना एआई समुदाय के लिए एक गंभीर क्षण है। यह बताता है कि "सुरक्षित-बाय-डिजाइन" एआई का आदर्शवादी दृष्टिकोण वाणिज्यिक प्रतिस्पर्धा की गर्मी में जीवित रहने के लिए संघर्ष कर रहा है। जबकि एंथ्रोपिक का कहना है कि वह अभी भी सुरक्षा के लिए प्रतिबद्ध है, उस प्रतिबद्धता की परिभाषा स्पष्ट रूप से संकुचित हो गई है।

जैसे-जैसे हम 2026 में गहराई से आगे बढ़ रहे हैं, एआई सुरक्षा का बोझ निर्माताओं से उपभोक्ताओं पर स्थानांतरित हो रहा है। दौड़ अब केवल इस बारे में नहीं है कि कौन सबसे स्मार्ट मशीन बना सकता है, बल्कि इस बारे में है कि उन मशीनों के पहले से कहीं अधिक तेजी से जारी होने पर कौन नियंत्रण में रह सकता है।

स्रोत:

  • Anthropic Official Blog: Updates to our Responsible Scaling Policy (2026)
  • TechCrunch: Anthropic’s Pivot and the Competitive AI Landscape
  • The Verge: Why the "Pause" Button on AI Just Disappeared
  • Financial Times: Claude and the Disruption of Global Markets
bg
bg
bg

आप दूसरी तरफ देखिए।

हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।

/ एक नि: शुल्क खाता बनाएं