Power Reads

प्रो-ह्यूमन डिक्लेरेशन: सुपरइंटेलिजेंस के युग के लिए एक द्विदलीय रोडमैप

पेंटागन-एंथ्रोपिक गतिरोध के बाद जिम्मेदार एआई विकास के लिए एक द्विदलीय रोडमैप, प्रो-ह्यूमन डिक्लेरेशन का अन्वेषण करें। एआई सुरक्षा के बारे में जानें।
Linda Zola
Linda Zola
8 मार्च 2026
प्रो-ह्यूमन डिक्लेरेशन: सुपरइंटेलिजेंस के युग के लिए एक द्विदलीय रोडमैप

पेंटागन और एंथ्रोपिक के बीच हालिया विवाद ने उस वास्तविकता को उजागर कर दिया है जिसे सिलिकॉन वैली और वाशिंगटन में कई लोगों ने अनदेखा करने की कोशिश की है: हम बिना किसी दिशा के आगे बढ़ रहे हैं। जबकि रक्षा प्रतिष्ठान और निजी लैब राष्ट्रीय सुरक्षा और कॉर्पोरेट स्वायत्तता की सीमाओं पर आपस में भिड़ रहे हैं, नेतृत्व का एक शून्य उभर आया है। इस शून्य को भरने के लिए 'प्रो-ह्यूमन डिक्लेरेशन' (Pro-Human Declaration) सामने आया है, जो शोधकर्ताओं, नैतिकतावादियों और उद्योग जगत के दिग्गजों के एक द्विदलीय गठबंधन द्वारा तैयार किया गया एक ढांचा है। इनका तर्क है कि यदि सरकार नियम नहीं बनाएगी, तो जनता को यह जिम्मेदारी उठानी होगी।

एमआईटी के भौतिक विज्ञानी मैक्स टेगमार्क द्वारा आंशिक रूप से आयोजित, यह घोषणा ठीक उसी समय हुई जब रक्षा विभाग और दुनिया की अग्रणी एआई प्रयोगशालाओं में से एक के बीच गतिरोध चरम पर पहुंच गया था। यह केवल एक और खुला पत्र नहीं है; यह उस दुनिया के लिए एक तकनीकी और नैतिक खाका है जहाँ सुपरइंटेलिजेंस अब कोई विज्ञान-कथा (sci-fi) की बात नहीं, बल्कि एक निकट भविष्य की वास्तविकता है।

शासन का संकट (The Crisis of Governance)

वर्षों से, एआई विनियमन के प्रति दृष्टिकोण प्रतिक्रियात्मक रहा है। कानून अक्सर मॉडल प्रशिक्षण की तीव्र गति से पीछे रह जाते हैं, जिससे डेवलपर्स स्वयं को विनियमित करने के लिए स्वतंत्र हो जाते हैं। पेंटागन-एंथ्रोपिक घटना—जहाँ मॉडल एक्सेस और सुरक्षा प्रोटोकॉल पर संचार की विफलता के कारण संबंधों में सार्वजनिक रूप से खटास आई—यह दर्शाती है कि जुड़ाव के स्पष्ट, मानकीकृत नियमों के बिना सबसे महत्वपूर्ण साझेदारियाँ भी नाजुक होती हैं।

मैक्स टेगमार्क नोट करते हैं कि जनता के धैर्य की सीमा समाप्त हो रही है। हाल के आंकड़े बताते हैं कि 95% अमेरिकी अब सुपरइंटेलिजेंस की ओर अनियंत्रित दौड़ का विरोध करते हैं। यह केवल "किलर रोबोट" का डर नहीं है; यह आर्थिक विस्थापन, सत्य के क्षरण और हमारे जीवन को संचालित करने वाली निर्णय लेने की प्रक्रियाओं में मानवीय एजेंसी के खोने के बारे में एक तर्कसंगत चिंता है।

प्रो-ह्यूमन ढांचे के स्तंभ

प्रो-ह्यूमन डिक्लेरेशन "एआई फॉर गुड" जैसी अस्पष्ट बातों से आगे बढ़कर काम करता है। इसके बजाय, यह तीन ठोस स्तंभों का प्रस्ताव करता है जिन्हें यह सुनिश्चित करने के लिए डिज़ाइन किया गया है कि जैसे-जैसे सिस्टम अधिक सक्षम होते जाएं, वे पूरी तरह से मानवीय नियंत्रण में रहें।

  1. अनिवार्य सुरक्षा बफर (Mandatory Safety Buffers): किसी विशिष्ट कंप्यूट थ्रेशोल्ड से अधिक के किसी भी मॉडल को तैनात करने से पहले, उसे तीसरे पक्ष के ऑडिट से गुजरना होगा जो डेवलपर और सरकार दोनों से स्वतंत्र हो। यह उद्योग में वर्तमान में प्रचलित "स्वयं के होमवर्क को स्वयं ग्रेड देने" की समस्या को रोकता है।
  2. मानवीय एजेंसी का अधिकार (The Right to Human Agency): घोषणा में कहा गया है कि कुछ निर्णय—कानूनी निर्णय, घातक बल का प्रयोग और चिकित्सा निदान—में हमेशा एक "ह्यूमन-इन-द-लूप" होना चाहिए जो अंतिम जिम्मेदारी वहन करे। एआई सुझाव दे सकता है, लेकिन निर्णय मनुष्यों को ही लेना चाहिए।
  3. इरादे की पारदर्शिता (Transparency of Intent): डेवलपर्स को न केवल इस बारे में पारदर्शी होना चाहिए कि एक मॉडल क्या करता है, बल्कि यह भी कि उसे कैसे प्रशिक्षित किया गया था और उसके अनुकूलन लक्ष्य क्या हैं। यदि कोई मॉडल सटीकता की कीमत पर जुड़ाव (engagement) को अधिकतम करने के लिए डिज़ाइन किया गया है, तो वह सार्वजनिक रिकॉर्ड का विषय होना चाहिए।

वर्तमान परिदृश्य की प्रो-ह्यूमन रोडमैप से तुलना

इस घोषणा द्वारा प्रस्तावित बदलाव को समझने के लिए, हम देख सकते हैं कि वर्तमान उद्योग प्रथाएं प्रस्तावित ढांचे के मुकाबले कैसी हैं।

विशेषता वर्तमान उद्योग मानक प्रो-ह्यूमन रोडमैप
सुरक्षा परीक्षण आंतरिक रेड-टीमिंग; स्वैच्छिक प्रकटीकरण। अनिवार्य, स्वतंत्र तीसरे पक्ष के ऑडिट।
देयता (Liability) अस्पष्ट; अक्सर EULAs द्वारा संरक्षित। डेवलपर देयता के लिए स्पष्ट कानूनी ढांचा।
विकास की गति प्रतिस्पर्धी "शीर्ष (या नीचे) की ओर दौड़"। सुरक्षा-आधारित मील के पत्थर और कंप्यूट कैप।
सार्वजनिक इनपुट न्यूनतम; लॉन्च के बाद की प्रतिक्रिया तक सीमित। द्विदलीय निरीक्षण और सार्वजनिक पारदर्शिता।

पेंटागन-एंथ्रोपिक गतिरोध क्यों मायने रखता है

पेंटागन के हालिया संघर्षों के साथ प्रो-ह्यूमन डिक्लेरेशन का मेल कोई संयोग नहीं है। सैन्य-औद्योगिक परिसर लार्ज लैंग्वेज मॉडल (LLMs) और स्वायत्त एजेंटों की क्षमताओं के लिए उत्सुक है, लेकिन उसके पास उनकी जांच करने के लिए आंतरिक विशेषज्ञता की कमी है। इसके विपरीत, एंथ्रोपिक जैसी प्रयोगशालाएं अपनी तकनीक के उन तरीकों से उपयोग किए जाने को लेकर सतर्क हैं जो उनके मूल सुरक्षा सिद्धांतों का उल्लंघन करते हैं।

एक एकीकृत रोडमैप के बिना, हमारे पास एक खंडित परिदृश्य बचता है जहाँ कुछ प्रयोगशालाएं अपारदर्शी शर्तों के तहत राज्य के साथ सहयोग करती हैं, जबकि अन्य अलगाव में चली जाती हैं। यह विखंडन खतरनाक है। यह "नियामक स्वर्ग" (regulatory havens) बनाता है जहाँ गति के लिए सुरक्षा की बलि दी जाती है, और जनता को बातचीत से पूरी तरह बाहर कर दिया जाता है।

व्यावहारिक निष्कर्ष: आगे क्या होगा?

हालाँकि प्रो-ह्यूमन डिक्लेरेशन अभी तक कानून नहीं है, लेकिन यह इस बात के लिए एक चेकलिस्ट प्रदान करता है कि आने वाले महीनों में जिम्मेदार एआई विकास कैसा दिखना चाहिए। तकनीकी नेताओं और संबंधित नागरिकों के लिए, निम्नलिखित कदम महत्वपूर्ण हैं:

  • स्वतंत्र ऑडिट की मांग करें: उन पहलों का समर्थन करें जो सुरक्षा परीक्षण को मॉडल बनाने वाली कंपनियों के हाथों से बाहर ले जाती हैं।
  • "ह्यूमन-इन-द-लूप" कानून की वकालत करें: सुनिश्चित करें कि उच्च-जोखिम वाले ऑटोमेशन के लिए हमेशा मानवीय हस्ताक्षर की आवश्यकता हो।
  • कंप्यूट थ्रेशोल्ड की निगरानी करें: बनाए जा रहे विशाल हार्डवेयर क्लस्टर्स पर नज़र रखें; ये वे भौतिक स्थान हैं जहाँ सुपरइंटेलिजेंस की अगली पीढ़ी का जन्म होगा, और उन्हें भौतिक निरीक्षण की आवश्यकता है।
  • द्विदलीय अंतर को पाटें: इस नए रोडमैप की ताकत इसके व्यापक समर्थन में निहित है। एआई सुरक्षा एक दलीय मुद्दा नहीं होना चाहिए, क्योंकि गलत संरेखण (misalignment) के जोखिम राजनीतिक संबद्धता की परवाह किए बिना सभी को प्रभावित करते हैं।

आगे की राह

प्रो-ह्यूमन डिक्लेरेशन एक अनुस्मारक है कि बुद्धिमत्ता का भविष्य मुट्ठी भर सीईओ और जनरलों पर छोड़ने के लिए बहुत महत्वपूर्ण है। यह हमारे समय की सबसे परिवर्तनकारी तकनीक के लिए अधिक लोकतांत्रिक, पारदर्शी और—सबसे बढ़कर—मानव-केंद्रित दृष्टिकोण का आह्वान है। रोडमैप मेज पर है; अब एकमात्र प्रश्न यह है कि क्या सत्ता में बैठे लोग इसका पालन करना चुनेंगे।

स्रोत:

  • Future of Life Institute: AI Policy and Governance Research
  • MIT News: Max Tegmark on AI Safety and the Future of Intelligence
  • Anthropic: Core Views on AI Safety and Model Scaling
  • Department of Defense: Ethical Principles for Artificial Intelligence
bg
bg
bg

आप दूसरी तरफ देखिए।

हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।

/ एक नि: शुल्क खाता बनाएं