OpenAI ने चीन से जुड़े कुछ ChatGPT अकाउंट्स बैन किए: क्या है पूरा मामला?


 OpenAI ने अपने ताज़ा सुरक्षा (Threat Intelligence) रिपोर्ट में खुलासा किया है कि उसने कुछ चैटजीपीटी (ChatGPT) अकाउंट्स को चीन से जुड़े सरकारी या सरकारी-निकट संपर्कों वाले अके्टरर्स से जोड़कर देखा है, जो सोशल मीडिया की निगरानी (surveillance) या “सोशल मीडिया सुनने” (social media listening) टूल बनाने की योजना बना रहे थे। The Times of India+4mint+4Investing.com India+4


🔍 क्या किया जा रहा था?

  • ये अकाउंट्स ChatGPT से ऐसे प्रोजेक्ट प्रस्ताव (project proposals), टूल डिज़ाइन्स और प्रेज़ेंटेशन मटेरियल तैयार करवा रहे थे, जिनका मकसद सोशल मीडिया प्लेटफ़ॉर्म्स (जैसे कि X, Facebook, YouTube, Instagram, Reddit, TikTok) पर एथनिक, धार्मिक, राजनीतिक सामग्री, विशेष तौर पर विरोध-प्रदर्शनों से जुड़े पोस्टों को ट्रैक करना था। 

  • एक उदाहरण में, ऐसे “listening tools” के लिए कोड को डीबग करने (debugging) का काम भी करवाया गया था। 

  • एक ख़ूबी यह रही कि ये गतिविधियाँ OpenAI की नीतियों-विशेष रूप से national security policy और prohibition on communications surveillance नियमों के ठीक खिलाफ थीं।  

OpenAI की प्रतिक्रिया

  • OpenAI ने तुरंत ऐसे कई अकाउंट्स को बैन कर दिया है जिन्हें सरकार अथवा सरकारी निकट संपर्कों से जोड़ने की संभावना थी। 

  • कंपनी ने स्पष्ट किया है कि इन उपयोगों का उद्देश्य unauthorized surveillance और individuals की निगरानी करना है, जो OpenAI की नीति में प्रतिबंधित है। 

  • रिपोर्ट में यह भी लिखा है कि ये लोग अक्सर चीनी भाषा में प्रॉम्प्ट देते थे, चीनी बिजनस-ऑफिस घंटे (mainland Chinese business hours) के अनुसार काम करते थे, और वॉल्यूम व प्रम्प्ट की प्रवृत्ति ऐसी थी कि लगता है ये “manual prompting” (अर्थात् व्यक्तिगत, हाथ द्वारा किये गए प्रयास) की श्रेणी में थे, न कि ऑटोमेशन की वजह से।

क्या नहीं मिला?

  • रिपोर्ट में कहा गया है कि अभी तक ऐसा कोई सबूत नहीं मिला कि OpenAI का मॉडल किसी नए ऑफेंसिव (हमलावर) कौशल या क्षमता को इन “खतरनाक अभियानों” के लिए प्रदान कर रहा हो। ये भी स्पष्ट किया गया है कि सिर्फ प्रस्ताव बनाना या कोड का मसौदा तैयार करना ही हुआ है; ऐसा नहीं कि OpenAI की सर्विस ने खुद कुछ निगरानी उपकरण चलाया हो।

निष्कर्ष

यह मामला हमें यह सोचने पर मजबूर करता है कि कितनी सजगता से AI टूल्स को विकसित और नियंत्रित करना चाहिए।:

  • AI प्लेटफ़ॉर्म्स जैसे ChatGPT पर उपयोगकर्ताओं की प्रॉम्प्टिंग गतिविधि पर नज़र रखना ज़रूरी है, विशेषकर जब वो संभवतः सरकारें या सरकारी निकट संगठन हों।

  • नीति (policy) और उपाय (safeguards) बनाए जाने चाहिए ताकि AI का दुरुपयोग न हो, खासकर निगरानी, मॉनिटरिंग, व्यक्तिगत गोपनीयता (privacy) और व्यक्तियों की स्वतंत्रता के संदर्भ में।

  • टेक्नोलॉजी की शक्ति जितनी बढ़ रही है, उतना ही ज़िम्मेदारी भी बढ़ रही है — उपयोगकर्ताओं, प्लेटफ़ॉर्म्स और सरकारों सभी को मिलकर यह सुनिश्चित करना होगा कि तकनीक सामाजिक हित में हो, न कि उसके दमन या अत्यधिक नियंत्रण के साधन बने।

एक टिप्पणी भेजें

0 टिप्पणियाँ