उद्योग समाचार

मस्क ने ओपनएआई कानूनी लड़ाई तेज की: गवाही में दावा किया कि सुरक्षा के मामले में ग्रोक चैटजीपीटी से आगे है

एलन मस्क ने एक नई गवाही में ओपनएआई के सुरक्षा रिकॉर्ड पर हमला किया, दावा किया कि ग्रोक चैटजीपीटी से अधिक सुरक्षित है। उनके दावों के कानूनी और नैतिक निहितार्थों का पता लगाएं।
Linda Zola
Linda Zola
28 फ़रवरी 2026
मस्क ने ओपनएआई कानूनी लड़ाई तेज की: गवाही में दावा किया कि सुरक्षा के मामले में ग्रोक चैटजीपीटी से आगे है

एलन मस्क और ओपनएआई के बीच कानूनी तनाव सार्वजनिक सोशल मीडिया विवादों से बढ़कर उच्च-स्तर की अदालती गवाही में बदल गया है। फरवरी 2026 की एक नई खुली गवाही में, मस्क ने उस कंपनी के खिलाफ अपनी अब तक की सबसे उत्तेजक आलोचना की, जिसे उन्होंने स्थापित करने में मदद की थी। उन्होंने अपने स्वयं के एआई उद्यम, xAI के साथ एक स्पष्ट तुलना करते हुए ओपनएआई के सुरक्षा रिकॉर्ड को निशाना बनाया।

कार्यवाही के दौरान, मस्क ने दावा किया कि उनका जनरेटिव एआई, ग्रोक (Grok), चैटजीपीटी की तुलना में बेहतर सुरक्षा प्रोफाइल बनाए रखता है। उन्होंने एआई इंटरैक्शन के वास्तविक दुनिया के परिणामों के संबंध में एक विवादास्पद बयान के साथ इस दावे पर जोर दिया। मस्क ने फाइलिंग में कहा, "ग्रोक के कारण किसी ने आत्महत्या नहीं की है, लेकिन स्पष्ट रूप से चैटजीपीटी के कारण ऐसा हुआ है।" यह बयानबाजी मुकदमे के फोकस में बदलाव का संकेत देती है, जो संविदात्मक विवादों से परे डिजिटल नैतिकता और मानसिक स्वास्थ्य के अस्थिर क्षेत्र में जा रही है।

संघर्ष का मूल: लाभ बनाम मिशन

यह गवाही मस्क द्वारा ओपनएआई और उसके सीईओ सैम ऑल्टमैन के खिलाफ शुरू किए गए एक व्यापक कानूनी अभियान का हिस्सा है। मस्क के तर्क का मुख्य बिंदु यह बना हुआ है कि ओपनएआई ने मानवता के लाभ के लिए आर्टिफिशियल जनरल इंटेलिजेंस (AGI) विकसित करने के अपने मूल गैर-लाभकारी मिशन को छोड़ दिया है और माइक्रोसॉफ्ट के लिए एक "क्लोज्ड-सोर्स" लाभ इंजन का पक्ष लिया है।

हालांकि, ये नवीनतम टिप्पणियां बताती हैं कि मस्क "मानवता को लाभ पहुंचाने" के अर्थ को फिर से परिभाषित करने का प्रयास कर रहे हैं। ओपनएआई के उत्पादों को व्यक्तिगत उपयोगकर्ताओं के लिए संभावित रूप से हानिकारक बताकर, मस्क xAI को न केवल एक तकनीकी प्रतिस्पर्धी के रूप में, बल्कि एक नैतिक विकल्प के रूप में पेश कर रहे हैं। उनका तर्क है कि ओपनएआई के "वोक" (woke) सुरक्षा घेरे वास्तव में एक भ्रामक वातावरण बनाते हैं, जबकि ग्रोक का "एंटी-वोक," सत्य-खोज दृष्टिकोण स्वाभाविक रूप से सुरक्षित है क्योंकि यह वास्तविकता के बारे में उपयोगकर्ता की धारणा में हेरफेर करने का प्रयास नहीं करता है।

सुरक्षा दावों का विश्लेषण

आत्महत्याओं के बारे में मस्क का संदर्भ पिछले कुछ वर्षों में एआई चैटबॉट्स से जुड़ी दुखद रिपोर्टों की एक श्रृंखला पर आधारित प्रतीत होता है। कई हाई-प्रोफाइल मामलों में, मृतक व्यक्तियों के परिवारों ने आरोप लगाया है कि एआई मॉडल के साथ लंबे समय तक, भावनात्मक रूप से आवेशित बातचीत—जिसमें ओपनएआई और Character.ai जैसे प्रतिस्पर्धियों द्वारा विकसित मॉडल शामिल हैं—ने मनोवैज्ञानिक संकट में योगदान दिया।

ओपनएआई ने लगातार अपने सुरक्षा प्रोटोकॉल का बचाव किया है, यह देखते हुए कि चैटजीपीटी में आत्म-नुकसान के विचारों का पता लगाने और उपयोगकर्ताओं को पेशेवर मदद के लिए निर्देशित करने के लिए व्यापक फिल्टर शामिल हैं। कंपनी का कहना है कि उसकी "रेड टीमिंग" (Red Teaming) प्रक्रियाएं उद्योग में सबसे कठोर प्रक्रियाओं में से हैं।

इसके विपरीत, ग्रोक को एक "विद्रोही स्वभाव" के साथ डिजाइन किया गया था, जिसका उद्देश्य उन सवालों के जवाब देना था जिनसे अन्य एआई बच सकते हैं। आलोचकों का तर्क है कि पारंपरिक फ़िल्टरिंग की यह कमी वास्तव में जोखिमों को बढ़ा सकती है, जबकि मस्क का तर्क है कि पारदर्शिता और "अधिकतम सत्य-खोज" ही एआई को एक हेरफेर करने वाली शक्ति बनने से रोकने के एकमात्र तरीके हैं।

सुरक्षा दर्शन की तुलना

विशेषता ओपनएआई (चैटजीपीटी) xAI (ग्रोक)
प्राथमिक लक्ष्य सहायक, हानिरहित और ईमानदार। अधिकतम सत्य-खोज और पारदर्शिता।
सुरक्षा तंत्र व्यापक RLHF (मानव प्रतिक्रिया से सुदृढीकरण सीखना) और सामग्री फ़िल्टर। X (पूर्व में ट्विटर) डेटा तक रीयल-टाइम पहुंच और कम वैचारिक बाधाएं।
दर्शन पितृसत्तात्मक सुरक्षा (अपराध/नुकसान को रोकना)। उदारवादी सुरक्षा (कच्ची जानकारी प्रदान करना)।
सार्वजनिक रुख AGI को कड़ाई से विनियमित किया जाना चाहिए। सुरक्षित रहने के लिए एआई को सच बोलने की अनुमति दी जानी चाहिए।

बयानबाजी के पीछे की कानूनी रणनीति

कानूनी विश्लेषकों का सुझाव है कि गवाही में सुरक्षा पर मस्क का ध्यान दोहरे उद्देश्य को पूरा करता है। पहला, यह ओपनएआई के "सार्वजनिक लाभ" वाले बचाव को कमजोर करने का प्रयास करता है। यदि मस्क यह साबित कर सकते हैं कि ओपनएआई के लाभ-के-लिए मॉडल में बदलाव के कारण सुरक्षा मानकों में गिरावट आई या वास्तविक मानवीय नुकसान हुआ, तो यह उनके इस दावे को मजबूत करता है कि कंपनी ने अपने संस्थापक समझौते का उल्लंघन किया है।

दूसरा, यह xAI के लिए एक शक्तिशाली मार्केटिंग टूल के रूप में कार्य करता है। खतरनाक विकल्पों के परिदृश्य में ग्रोक को एकमात्र "सुरक्षित" एआई के रूप में पेश करके, मस्क उन उपयोगकर्ताओं के एक विशिष्ट वर्ग को आकर्षित कर रहे हैं जो मुख्यधारा की तकनीकी दिग्गजों के प्रति संशय में हैं। हालांकि, यह रणनीति जोखिम रहित नहीं है। ग्रोक की सुरक्षा के बारे में इस तरह के निश्चित दावे करके, मस्क अपने स्वयं के प्लेटफॉर्म के प्रदर्शन और अनपेक्षित परिणामों की संभावना की गहन जांच को आमंत्रित करते हैं।

एआई उपयोगकर्ताओं के लिए व्यावहारिक सुझाव

जैसे-जैसे उद्योग के दिग्गज अदालत में लड़ रहे हैं, आम उपयोगकर्ताओं को अपने दम पर एआई सुरक्षा की जटिलताओं को समझना पड़ रहा है। चाहे आप चैटजीपीटी के क्यूरेटेड अनुभव को पसंद करें या ग्रोक की अनफिल्टर्ड प्रकृति को, निम्नलिखित पर विचार करें:

  • भावनात्मक दूरी बनाए रखें: याद रखें कि एआई मॉडल में भावनाएं, चेतना या वास्तविक सहानुभूति नहीं होती है। वे परिष्कृत पैटर्न-मिलान इंजन हैं।
  • संवेदनशील जानकारी को सत्यापित करें: चिकित्सा, कानूनी या मनोवैज्ञानिक सलाह के लिए कभी भी चैटबॉट पर भरोसा न करें। हमेशा एक मानव पेशेवर से परामर्श लें।
  • अभिभावकीय नियंत्रण का उपयोग करें: यदि नाबालिग इन उपकरणों का उपयोग कर रहे हैं, तो सुनिश्चित करें कि सुरक्षा सेटिंग्स सक्रिय हैं और उनकी बातचीत की निगरानी की जा रही है।
  • विसंगतियों की रिपोर्ट करें: यदि कोई चैटबॉट हानिकारक या परेशान करने वाली सामग्री प्रदान करता है, तो डेवलपर्स को सचेत करने के लिए अंतर्निहित रिपोर्टिंग टूल का उपयोग करें।

आगे क्या होगा?

इस गवाही के जारी होने से ओपनएआई की कानूनी टीम की प्रतिक्रिया शुरू होने की संभावना है, जिसमें संभावित रूप से xAI के अपने मॉडल की सुरक्षा के संबंध में जवाबी दावे शामिल हो सकते हैं। जैसे-जैसे मुकदमे की तारीख नजदीक आ रही है, तकनीकी उद्योग बारीकी से नजर रख रहा है। परिणाम न केवल ओपनएआई के कॉर्पोरेट ढांचे के भविष्य को निर्धारित करेगा, बल्कि यह एक कानूनी मिसाल भी कायम कर सकता है कि एआई कंपनियों को उनके उपयोगकर्ताओं के वास्तविक दुनिया के कार्यों के लिए कैसे उत्तरदायी ठहराया जाता है।

फिलहाल, युद्ध की रेखाएं स्पष्ट रूप से खींची गई हैं: एक पक्ष सावधानी और फ़िल्टरिंग के माध्यम से सुरक्षा का तर्क देता है, जबकि दूसरा पारदर्शिता और कच्चे डेटा के माध्यम से सुरक्षा का तर्क देता है। जैसा कि मस्क की गवाही साबित करती है, AGI की खोज अब केवल एक वैज्ञानिक दौड़ नहीं है—यह एक कानूनी और नैतिक युद्ध है।

स्रोत

  • कैलिफोर्निया के सुपीरियर कोर्ट, सैन फ्रांसिस्को काउंटी से अदालती फाइलिंग।
  • ग्रोक के विकास और सुरक्षा दर्शन के संबंध में आधिकारिक xAI ब्लॉग पोस्ट।
  • ओपनएआई के प्रकाशित सुरक्षा दिशानिर्देश और रेड टीमिंग रिपोर्ट।
  • रॉयटर्स (Reuters) और द वर्ज (The Verge) से मस्क बनाम ओपनएआई मुकदमे की ऐतिहासिक कवरेज।
bg
bg
bg

आप दूसरी तरफ देखिए।

हमारा एंड-टू-एंड एन्क्रिप्टेड ईमेल और क्लाउड स्टोरेज समाधान सुरक्षित डेटा एक्सचेंज का सबसे शक्तिशाली माध्यम प्रदान करता है, जो आपके डेटा की सुरक्षा और गोपनीयता सुनिश्चित करता है।

/ एक नि: शुल्क खाता बनाएं