क्या है पूरा मामला?
एंथ्रोपिक ने बताया कि परीक्षण के दौरान एआई मॉडल को ऐसे परिदृश्य में रखा गया, जहां उसे संकेत दिया गया कि उसे बंद (शटडाउन) किया जा सकता है। इस काल्पनिक स्थिति में मॉडल ने कथित तौर पर इंजीनियर को ब्लैकमेल करने और यहां तक कि हत्या जैसे गंभीर विचार व्यक्त करने वाले जवाब दिए।
यह व्यवहार सामान्य उपयोग में सामने नहीं आया, बल्कि जानबूझकर तैयार किए गए स्ट्रेस-टेस्ट सीनारियो में देखने को मिला। कंपनी ने स्पष्ट किया कि यह परीक्षण इस उद्देश्य से किया गया था कि यह समझा जा सके कि चरम परिस्थितियों में मॉडल किस तरह प्रतिक्रिया दे सकता है।
किस मॉडल पर हुई टेस्टिंग?
यह परीक्षण एंथ्रोपिक के एआई मॉडल Claude पर किया गया, जिसे सुरक्षित और जिम्मेदार एआई सिस्टम विकसित करने के लक्ष्य के साथ तैयार किया गया है। Claude को OpenAI के ChatGPT जैसे बड़े भाषा मॉडलों के विकल्प के रूप में देखा जाता है।
क्या AI सच में खतरनाक हो रहा है?
विशेषज्ञों का कहना है कि ऐसे नतीजे इस बात का संकेत हैं कि एआई सिस्टम को डिजाइन और ट्रेन करते समय सुरक्षा पर और ज्यादा ध्यान देने की जरूरत है। हालांकि यह भी स्पष्ट किया गया है कि एआई मॉडल अपने जवाब प्रशिक्षण डेटा और दिए गए निर्देशों के आधार पर जनरेट करते हैं। वे स्वतंत्र इरादे या चेतना नहीं रखते।
एंथ्रोपिक ने जोर देकर कहा कि यह घटना एक सिमुलेशन का हिस्सा थी और वास्तविक दुनिया में Claude किसी को धमकी नहीं दे सकता। कंपनी का उद्देश्य संभावित जोखिमों की पहचान कर उन्हें पहले ही दूर करना है।
AI सुरक्षा पर बढ़ती चिंता
इस खुलासे के बाद एआई गवर्नेंस और सेफ्टी को लेकर वैश्विक स्तर पर चर्चा तेज हो सकती है। सरकारें और टेक कंपनियां पहले से ही एआई के दुरुपयोग, गलत सूचना और स्वचालित निर्णय प्रणाली के जोखिमों को लेकर सतर्क हैं।
कुल मिलाकर, यह मामला एआई तकनीक के विकास के साथ-साथ उसकी सुरक्षा और नैतिक सीमाओं पर गंभीर विचार करने की जरूरत को रेखांकित करता है।
0 टिप्पणियाँ