स्पेन ने अभियोजकों को प्रमुख सोशल मीडिया प्लेटफॉर्म X (पूर्व में ट्विटर), मेटा और टिकटॉक के खिलाफ जांच शुरू करने का निर्देश दिया है। यह निर्देश उन आरोपों के बाद दिया गया है जिनमें कहा गया है कि उनके प्लेटफॉर्म के माध्यम से एआई-जनरेटेड बाल यौन शोषण सामग्री वितरित की गई है। यह उनके प्लेटफॉर्म पर दिखाई देने वाली हानिकारक और अवैध सामग्री के लिए प्रौद्योगिकी कंपनियों को जवाबदेह ठहराने के यूरोपीय प्रयासों में एक महत्वपूर्ण वृद्धि का प्रतीक है।
यह कदम ऐसे समय में आया है जब पूरे यूरोपीय संघ के नियामक इस बात की जांच तेज कर रहे हैं कि तकनीकी कंपनियां सामग्री को कैसे मॉडरेट करती हैं, विशेष रूप से तब जब आर्टिफिशियल इंटेलिजेंस यथार्थवादी लेकिन कृत्रिम चित्र और वीडियो बनाना आसान बना देता है। स्पेन का निर्णय संकेत देता है कि जब बच्चों को ऑनलाइन सुरक्षित रखने की बात आती है, तो सरकारें अब प्लेटफॉर्म द्वारा स्व-विनियमन की प्रतीक्षा करने को तैयार नहीं हैं।
आर्टिफिशियल इंटेलिजेंस ने ऑनलाइन सुरक्षा खतरों के परिदृश्य को बदल दिया है। आधुनिक जनरेटिव एआई उपकरण फोटो-यथार्थवादी चित्र और वीडियो बना सकते हैं जिन्हें प्रामाणिक सामग्री से अलग करना कठिन होता जा रहा है। हालांकि इन तकनीकों का मनोरंजन, डिजाइन और शिक्षा में वैध उपयोग है, लेकिन उन्होंने उत्पादन के दौरान सीधे किसी बच्चे को नुकसान पहुंचाए बिना बाल यौन शोषण सामग्री बनाने का एक परेशान करने वाला नया रास्ता भी खोल दिया है।
हालांकि, विशेषज्ञ और कानून प्रवर्तन एजेंसियां इस बात पर जोर देती हैं कि ऐसी सामग्री अभी भी बेहद हानिकारक है। यह बच्चों के यौन शोषण को सामान्य बनाती है, इसका उपयोग वास्तविक पीड़ितों को फंसाने के लिए किया जा सकता है, और सिंथेटिक सामग्री के साथ डिटेक्शन सिस्टम को भरकर जांचकर्ताओं के लिए वास्तविक पीड़ितों की पहचान करना और उन्हें बचाना कठिन बना देती है। इस सामग्री का अस्तित्व, इसके मूल की परवाह किए बिना, बाल शोषण के बाजार को बढ़ावा देता है।
स्पेनिश जांच इस बात पर केंद्रित है कि क्या X, मेटा और टिकटॉक के पास इस एआई-जनरेटेड सामग्री का पता लगाने और उसे हटाने के लिए पर्याप्त सुरक्षा उपाय हैं, और क्या वे अपने प्लेटफॉर्म पर दिखाई देने वाली ऐसी सामग्री की रिपोर्ट के प्रति पर्याप्त रूप से उत्तरदायी रहे हैं।
स्पेन की कार्रवाई यूरोपीय संघ के डिजिटल सेवा अधिनियम (DSA) के संदर्भ में हो रही है, जो 2024 में पूरी तरह से प्रभावी हुआ। यह ऐतिहासिक कानून ऑनलाइन प्लेटफॉर्मों को अवैध सामग्री की जिम्मेदारी लेने और हानिकारक सामग्री के प्रसार को पहचानने, हटाने और रोकने के लिए मजबूत सिस्टम लागू करने की आवश्यकता रखता है।
DSA के तहत, बहुत बड़े ऑनलाइन प्लेटफॉर्म—जिनके यूरोपीय संघ में 45 मिलियन से अधिक मासिक सक्रिय उपयोगकर्ता हैं—विशेष दायित्वों का सामना करते हैं। उन्हें जोखिम मूल्यांकन करना चाहिए, शमन उपाय लागू करने चाहिए और स्वतंत्र ऑडिट से गुजरना चाहिए। X, मेटा (जो फेसबुक, इंस्टाग्राम और व्हाट्सएप संचालित करता है), और टिकटॉक सभी इस श्रेणी में आते हैं।
DSA की आवश्यकताओं का पालन करने में विफलता के परिणामस्वरूप कंपनी के वैश्विक वार्षिक राजस्व का छह प्रतिशत तक जुर्माना लगाया जा सकता है। मेटा के लिए, जिसने 2024 के लिए $130 बिलियन से अधिक के राजस्व की सूचना दी थी, इसका मतलब अरबों डॉलर का जुर्माना हो सकता है। वित्तीय और प्रतिष्ठा दोनों स्तरों पर दांव बहुत ऊंचे हैं।
स्पेन की जांच के केंद्र में रहीं तीनों कंपनियों ने सार्वजनिक रूप से बाल यौन शोषण सामग्री का मुकाबला करने के लिए प्रतिबद्धता जताई है, हालांकि उनके दृष्टिकोण और ट्रैक रिकॉर्ड अलग-अलग हैं।
मेटा ने एआई-संचालित स्कैनिंग टूल और मानव मॉडरेटर के संयोजन का उपयोग करते हुए डिटेक्शन तकनीक में महत्वपूर्ण निवेश किया है। कंपनी सालाना नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन (NCMEC) को लाखों बाल शोषण सामग्री की रिपोर्ट करती है। हालांकि, आलोचकों का तर्क है कि मेटा के सिस्टम अभी भी बहुत अधिक हानिकारक सामग्री को गुजरने देते हैं, विशेष रूप से इसकी एन्क्रिप्टेड मैसेजिंग सेवाओं पर।
एलोन मस्क के स्वामित्व में X को कंटेंट मॉडरेशन पर बढ़ती जांच का सामना करना पड़ा है। प्लेटफॉर्म ने 2023 में अपनी ट्रस्ट और सेफ्टी टीमों में भारी कटौती की, जिससे अवैध सामग्री का पता लगाने और उसे हटाने की इसकी क्षमता पर चिंताएं बढ़ गईं। जबकि X का कहना है कि वह बाल यौन शोषण सामग्री के प्रति शून्य सहनशीलता रखता है, कई शोध संगठनों ने ऐसे उदाहरणों का दस्तावेजीकरण किया है जहां रिपोर्ट की गई सामग्री लंबे समय तक सुलभ बनी रही।
टिकटॉक ने स्वचालित पहचान और मानव समीक्षा के अपने संयोजन के साथ-साथ बाल सुरक्षा संगठनों के साथ साझेदारी पर जोर दिया है। प्लेटफॉर्म ने युवा उपयोगकर्ताओं की सुरक्षा के लिए डिज़ाइन की गई सुविधाओं को भी लागू किया है, जैसे कि नाबालिगों के खातों के लिए डिफ़ॉल्ट गोपनीयता सेटिंग्स। फिर भी, प्रतिदिन अपलोड की जाने वाली सामग्री की विशाल मात्रा—करोड़ों वीडियो—किसी भी मॉडरेशन सिस्टम के लिए बड़ी चुनौतियां पेश करती है।
स्पेन की जांच प्लेटफॉर्म जवाबदेही के प्रति सरकारों के दृष्टिकोण में एक व्यापक बदलाव का प्रतिनिधित्व करती है। सोशल मीडिया कंपनियों को तटस्थ मध्यस्थ मानने के बजाय, नियामक तेजी से उन्हें प्रकाशकों के रूप में देख रहे हैं जिनकी उनके द्वारा होस्ट और प्रचारित की जाने वाली सामग्री के लिए संपादकीय जिम्मेदारी है।
यह मामला कई कारणों से महत्वपूर्ण मिसाल कायम कर सकता है। पहला, यह विशेष रूप से एआई-जनरेटेड सामग्री को संबोधित करता है, एक ऐसा क्षेत्र जहां नियम और प्रवर्तन प्रथाएं अभी भी विकसित हो रही हैं। दूसरा, यह दर्शाता है कि व्यक्तिगत यूरोपीय संघ के सदस्य देश स्वतंत्र रूप से जांच करने के इच्छुक हैं, भले ही यूरोपीय आयोग अपनी स्वयं की DSA प्रवर्तन कार्रवाई कर रहा हो।
जांच कंटेंट मॉडरेशन के केंद्र में एक तनाव को भी उजागर करती है: सुरक्षा के साथ उपयोगकर्ता की गोपनीयता को संतुलित करना। एंड-टू-एंड एन्क्रिप्शन, जो उपयोगकर्ता संचार को निगरानी से बचाता है, अवैध सामग्री का पता लगाना भी कठिन बनाता है। गोपनीयता को बनाए रखते हुए शोषण को रोकने वाले समाधान खोजना तकनीकी नीति में सबसे चुनौतीपूर्ण समस्याओं में से एक बना हुआ है।
जब प्लेटफॉर्म और नियामक इन मुद्दों पर काम कर रहे हैं, तो माता-पिता और उपयोगकर्ता ऑनलाइन सुरक्षा बढ़ाने के लिए कई कदम उठा सकते हैं:
अंतर्निहित सुरक्षा सुविधाओं को सक्षम करें। तीनों प्लेटफॉर्म पैरेंटल कंट्रोल, प्रतिबंधित मोड और कंटेंट फिल्टर प्रदान करते हैं। युवा उपयोगकर्ताओं के लिए इन सेटिंग्स को उचित रूप से कॉन्फ़िगर करने के लिए समय निकालें।
खुला संवाद बनाए रखें। बच्चों से इस बारे में बात करें कि वे ऑनलाइन क्या देखते हैं और एक ऐसा वातावरण बनाएं जहां वे संबंधित सामग्री या बातचीत की रिपोर्ट करने में सहज महसूस करें।
संदिग्ध सामग्री की तुरंत रिपोर्ट करें। सभी प्रमुख प्लेटफार्मों पर रिपोर्टिंग तंत्र हैं। उनका उपयोग करें। रिपोर्ट डिटेक्शन सिस्टम को प्रशिक्षित करने में मदद करती है और मानव मॉडरेटरों को समस्याग्रस्त सामग्री के प्रति सचेत करती है।
प्लेटफॉर्म नीतियों के बारे में सूचित रहें। कंपनियां नियमित रूप से अपनी सुरक्षा सुविधाओं और सामग्री नीतियों को अपडेट करती हैं। इन परिवर्तनों की समीक्षा करने से आपको यह समझने में मदद मिलती है कि क्या सुरक्षा उपाय मौजूद हैं।
तृतीय-पक्ष निगरानी उपकरणों पर विचार करें। विभिन्न पैरेंटल कंट्रोल एप्लिकेशन सुरक्षा की अतिरिक्त परतें और इस बात की दृश्यता प्रदान कर सकते हैं कि बच्चे सोशल मीडिया का उपयोग कैसे करते हैं।
स्पेन के अभियोजक अब यह निर्धारित करने के लिए सबूत जुटाएंगे कि क्या प्लेटफार्मों ने स्पेनिश कानून या यूरोपीय संघ के नियमों का उल्लंघन किया है। इस प्रक्रिया में महीनों या साल भी लग सकते हैं। यदि जांचकर्ता उल्लंघन पाते हैं, तो कंपनियों को भारी जुर्माने, अपनी प्रथाओं को बदलने के आदेश, या दोनों का सामना करना पड़ सकता है।
इस बीच, अन्य यूरोपीय देश बारीकी से देख रहे हैं। यदि स्पेन की जांच में प्रणालीगत विफलताएं सामने आती हैं, तो अन्य जगहों पर भी इसी तरह की जांच शुरू हो सकती है। यूरोपीय आयोग, जिसके पास बहुत बड़े प्लेटफार्मों के खिलाफ DSA लागू करने की प्राथमिक जिम्मेदारी है, स्पेन के निष्कर्षों के आधार पर अपनी जांच तेज कर सकता है।
व्यापक तकनीकी उद्योग के लिए, यह मामला इस बात को रेखांकित करता है कि एआई-जनरेटेड सामग्री को पारंपरिक अवैध सामग्री के समान ही गंभीर माना जाएगा। जैसे-जैसे जनरेटिव एआई क्षमताएं बढ़ती रहेंगी, प्लेटफार्मों को डिटेक्शन तकनीकों में भारी निवेश करने की आवश्यकता होगी जो सिंथेटिक सामग्री की पहचान कर सकें और इसे एआई के वैध उपयोगों से अलग कर सकें।
जांच कंटेंट मॉडरेशन के भविष्य के बारे में भी सवाल उठाती है। प्रमुख प्लेटफार्मों पर प्रतिदिन अरबों सामग्री पोस्ट किए जाने के साथ, क्या एआई और मानव मॉडरेटर का कोई भी संयोजन वास्तव में तालमेल बनाए रख सकता है? कुछ विशेषज्ञों का तर्क है कि इन चुनौतियों से पर्याप्त रूप से निपटने के लिए प्लेटफॉर्म के संचालन के तरीके में मौलिक बदलाव—जैसे कि उस सामग्री के एल्गोरिथम प्रवर्धन को सीमित करना जिसकी समीक्षा नहीं की गई है—आवश्यक हो सकता है।



हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।
/ एक नि: शुल्क खाता बनाएं