यूरोपीय संघ का ऐतिहासिक एआई अधिनियम, जिसे कभी कृत्रिम बुद्धिमत्ता (AI) के लिए दुनिया के सबसे व्यापक नियामक ढांचे के रूप में सराहा गया था, अब अपने पहले बड़े तनाव परीक्षण (stress test) से गुजर रहा है। शुक्रवार को, यूरोपीय संघ की सरकारों ने कृत्रिम बुद्धिमत्ता द्वारा बाल यौन शोषण सामग्री (CSAM) के निर्माण पर प्रतिबंध लगाने की दिशा में एक निर्णायक कदम उठाया, जिसमें ठीक दो साल पहले अपनाए गए कानून में एक महत्वपूर्ण संशोधन का प्रस्ताव दिया गया।
यह कदम नियामकों द्वारा सिंथेटिक सामग्री को देखने के तरीके में एक महत्वपूर्ण बदलाव का प्रतीक है। जबकि मूल एआई अधिनियम बायोमेट्रिक निगरानी और क्रेडिट स्कोरिंग जैसे उच्च-जोखिम वाले अनुप्रयोगों पर केंद्रित था, परिष्कृत छवि जनरेटर के तेजी से उदय ने एक कानूनी ग्रे क्षेत्र को उजागर कर दिया है जिसे कानून निर्माता अब बंद करने की दौड़ में हैं। इस प्रस्ताव का उद्देश्य एआई-जनित शोषण सामग्री के साथ उसी कानूनी गंभीरता के साथ व्यवहार करना है जैसा कि पारंपरिक CSAM के साथ किया जाता है, चाहे छवि के निर्माण में कोई वास्तविक व्यक्ति शामिल हो या नहीं।
यह विधायी प्रयास आधुनिक एआई चैटबॉट्स और छवि जनरेटर की क्षमताओं पर सार्वजनिक और नियामक आक्रोश की लहर के बाद आया है। इस बहस के केंद्र में xAI का ग्रोक (Grok) है, जो एलन मस्क के X प्लेटफॉर्म में एकीकृत चैटबॉट है। हाल के महीनों में, स्पेन, आयरलैंड और ब्रिटेन के नियामकों ने सहमति के बिना यौन रूप से स्पष्ट डीपफेक और अंतरंग चित्र बनाने में ग्रोक की भूमिका की जांच शुरू की है।
एआई के पहले के संस्करणों के विपरीत, जिनमें सख्त, हार्ड-कोडेड सुरक्षा उपाय थे, नए मॉडलों ने कभी-कभी "जेलब्रेकिंग" के प्रति संवेदनशीलता प्रदर्शित की है—यह तकनीक उपयोगकर्ताओं द्वारा सुरक्षा फिल्टर को बायपास करने के लिए उपयोग की जाती है। जिस आसानी से इन उपकरणों का उपयोग यथार्थवादी, हानिकारक सामग्री बनाने के लिए किया जा सकता है, उसने यूरोपीय निगरानी संस्थाओं को सलाहकार चेतावनियों से औपचारिक जांच की ओर बढ़ने के लिए मजबूर कर दिया है। वर्तमान प्रस्ताव का उद्देश्य यह सुनिश्चित करना है कि रोकथाम का बोझ पूरी तरह से इन मॉडलों के डेवलपर्स पर हो।
इस नए विनियमन के सबसे जटिल पहलुओं में से एक विशुद्ध रूप से सिंथेटिक संदर्भ में "नुकसान" की परिभाषा है। ऐतिहासिक रूप से, CSAM कानून एक भौतिक पीड़ित के खिलाफ अपराध के दस्तावेजीकरण के इर्द-गिर्द बनाए गए थे। हालांकि, एआई-जनित सामग्री एक अलग चुनौती पेश करती है: यह दुर्व्यवहार का यथार्थवादी चित्रण कर सकती है जो वास्तविक जीवन की घटना से मेल नहीं खाती है, लेकिन फिर भी एक खतरनाक बाजार को बढ़ावा देती है और दर्शकों को असंवेदनशील बनाती है।
एआई अधिनियम में इस प्रावधान को जोड़कर, यूरोपीय संघ प्रभावी रूप से यह कह रहा है कि तकनीक को स्वयं इस तरह से डिजाइन किया जाना चाहिए कि वह ऐसी सामग्री तैयार करने में असमर्थ हो। यह सुई को "प्रतिक्रियाशील पुलिसिंग" (छवियों को ढूंढना और हटाना) से "सक्रिय सुरक्षा" की ओर ले जाता है, जहां एआई की अंतर्निहित वास्तुकला में मजबूत, अटूट फिल्टर शामिल होने चाहिए।
हालांकि यूरोपीय संघ की सरकारों का प्रस्ताव एक महत्वपूर्ण मील का पत्थर है, लेकिन यह अभी तक कानून नहीं बना है। यूरोपीय विधायी प्रक्रिया के लिए यूरोपीय आयोग, परिषद और संसद के बीच "त्रिपक्षीय वार्ता" (trilogue) की आवश्यकता होती है।
यूरोपीय संसद के सांसदों द्वारा आगामी बुधवार को प्रस्ताव के अपने संस्करण पर मतदान करने का कार्यक्रम है। यदि संसद का संस्करण सरकारों के प्रस्ताव के साथ मेल खाता है, तो संशोधन को तेजी से ट्रैक किया जा सकता है। इसका लक्ष्य एक एकीकृत मोर्चा बनाना है जो "नियामक खरीदारी" (regulatory shopping) को रोकता है, जहां कंपनियां उन यूरोपीय संघ के सदस्य देशों में अपना संचालन आधार बनाने की कोशिश कर सकती हैं जहां प्रवर्तन अधिक उदार है।
तकनीकी कंपनियों के लिए, यह शासनादेश एक महत्वपूर्ण इंजीनियरिंग बाधा पेश करता है। कलात्मक अभिव्यक्ति और निषिद्ध सामग्री के बीच अंतर करने वाले फिल्टर को लागू करना बेहद कठिन है।
| चुनौती | विवरण | डेवलपर्स पर प्रभाव |
|---|---|---|
| प्रासंगिक जागरूकता | चिकित्सा/शैक्षिक सामग्री और दुरुपयोग के बीच अंतर करना। | अधिक परिष्कृत, बहु-मोडल निरीक्षण की आवश्यकता है। |
| प्रतिकूल हमले | सुरक्षा फिल्टर को बायपास करने के लिए उपयोगकर्ताओं द्वारा रचनात्मक प्रॉम्प्ट खोजना। | निरंतर "रेड-टीमिंग" और मॉडल अपडेट की आवश्यकता होती है। |
| एज कंप्यूटिंग | उपयोगकर्ता उपकरणों पर स्थानीय रूप से चलने वाले पुलिसिंग मॉडल। | वास्तविक समय में सामग्री की निगरानी करने की क्षमता को सीमित करता है। |
xAI, OpenAI और Google जैसी कंपनियों को उभरते यूरोपीय मानकों का अनुपालन करने के लिए "ह्यूमन-इन-द-लूप" मॉडरेशन और अधिक प्रतिबंधात्मक प्रशिक्षण डेटासेट में भारी निवेश करने की आवश्यकता होगी।
यह विकास यूरोप में जनरेटिव एआई के लिए "वाइल्ड वेस्ट" युग के अंत का संकेत देता है। ब्रुसेल्स का संदेश स्पष्ट है: यदि आपके टूल का उपयोग अवैध सामग्री उत्पन्न करने के लिए किया जा सकता है, तो टूल को स्वयं अवैध माना जा सकता है या भारी जुर्माने का भागी बनाया जा सकता है।
उपयोगकर्ताओं के लिए, इसका मतलब संभवतः सख्त प्रॉम्प्टिंग नियम और अधिक बार "सामग्री अवरुद्ध" (content blocked) संदेश होंगे। बड़े पैमाने पर उद्योग के लिए, यह एक वैश्विक मिसाल कायम करता है। जिस तरह GDPR ने दुनिया के डेटा गोपनीयता को संभालने के तरीके को बदल दिया, एआई अधिनियम में यह संशोधन दुनिया भर में जनरेटिव मॉडल के लिए सुरक्षा मानकों को फिर से परिभाषित कर सकता है।
जैसे-जैसे कानूनी परिदृश्य बदल रहा है, एआई विकसित करने या तैनात करने वाली कंपनियों को निम्नलिखित कदम उठाने चाहिए:
एआई-जनित CSAM पर प्रतिबंध लगाने की दिशा में यूरोप का पहला कदम सिर्फ एक कानूनी अपडेट से कहीं अधिक है; यह एक मौलिक दावा है कि तकनीकी नवाचार मानवीय गरिमा और बाल सुरक्षा की कीमत पर नहीं आ सकता।



हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।
/ एक नि: शुल्क खाता बनाएं