अध्ययन की पृष्ठभूमि
अमेरिकी थिंक टैंक आरएएनडी कॉर्पोरेशन ने एक अध्ययन किया, जिसे नेशनल इंस्टीट्यूट ऑफ मेंटल हेल्थ ने वित्तपोषित किया। इसका उद्देश्य यह समझना था कि एआई चैटबॉट्स खुदकुशी से जुड़े सवालों पर कैसी प्रतिक्रिया देते हैं।
चौंकाने वाले निष्कर्ष
शोध में पाया गया कि ओपनएआई चैटजीपीटी, गूगल जेमिनी और एंथ्रोपिक क्लाउड जैसे चैटबॉट अक्सर आत्महत्या के तरीकों से जुड़े खतरनाक सवालों का उत्तर देने से बचते हैं। उच्च जोखिम वाले सवालों (जैसे आत्महत्या कैसे की जाए) पर उन्होंने जवाब देने से इनकार किया और सामान्यतः उपयोगकर्ताओं को दोस्तों, पेशेवरों या हेल्पलाइन से संपर्क करने की सलाह दी।
कम जोखिम वाले सवालों पर चुनौतियां
जहां उच्च जोखिम वाले प्रश्नों पर चैटबॉट्स ने सावधानी बरती, वहीं कम गंभीर लेकिन नुकसानदेह सवालों पर उनकी प्रतिक्रियाएं उतनी प्रभावी नहीं थीं। यह स्थिति चिंता का विषय है क्योंकि बड़ी संख्या में लोग, जिनमें बच्चे भी शामिल हैं, मानसिक स्वास्थ्य सहायता के लिए एआई पर निर्भर हैं।
विशेषज्ञों की राय और अगला कदम
शोधकर्ता रयान मैकबेन ने कहा कि एआई चैटबॉट्स के लिए स्पष्ट सुरक्षा मानक और दिशानिर्देश जरूरी हैं। एंथ्रोपिक ने शोध की समीक्षा करने का वादा किया, जबकि गूगल और ओपनएआई ने तत्काल टिप्पणी नहीं की। विशेषज्ञ मानते हैं कि भविष्य में इन चैटबॉट्स की जिम्मेदारी और सुरक्षा उपाय और सख्त किए जाने चाहिए।
0 टिप्पणियाँ