टेक दिग्गज Microsoft के AI असिस्टेंट Microsoft 365 Copilot में एक गंभीर सुरक्षा खामी सामने आई है। इस बग के कारण Copilot कुछ ऐसे गोपनीय Outlook ईमेल तक पहुंचने और उनका सार (summary) बनाने में सक्षम हो गया, जिन पर डेटा लॉस प्रिवेंशन (DLP) और संवेदनशीलता लेबल जैसी सुरक्षा नीतियां लागू थीं।
क्या था मामला?
रिपोर्ट्स के अनुसार:
-
जिन ईमेल पर Confidential या Sensitive लेबल लगे थे, उन्हें Copilot सीधे साझा तो नहीं कर रहा था,
-
लेकिन वह उन ईमेल की सामग्री पढ़कर उनका सार प्रस्तुत कर सकता था।
-
इससे सुरक्षा नीतियों की प्रभावशीलता पर सवाल खड़े हुए, खासकर उन संगठनों में जहां DLP नियम सख्ती से लागू हैं।
DLP नीतियां आमतौर पर इस उद्देश्य से लगाई जाती हैं कि संवेदनशील जानकारी—जैसे वित्तीय डेटा, कानूनी दस्तावेज या व्यक्तिगत जानकारी—अनधिकृत रूप से साझा न हो सके।
क्यों है यह गंभीर?
-
डेटा सुरक्षा जोखिम – संवेदनशील ईमेल की अप्रत्यक्ष जानकारी लीक हो सकती थी।
-
कंप्लायंस चुनौती – फाइनेंस, हेल्थकेयर और लीगल सेक्टर के लिए खतरा।
-
AI गवर्नेंस पर सवाल – क्या AI टूल्स सुरक्षा नीतियों का पूरी तरह पालन कर रहे हैं?
विशेषज्ञों का कहना है कि AI सिस्टम्स को एंटरप्राइज सुरक्षा ढांचे के साथ पूरी तरह संरेखित करना जरूरी है, वरना ऑटोमेशन नए जोखिम भी पैदा कर सकता है।
Microsoft का जवाब
Microsoft ने इस मुद्दे को स्वीकार करते हुए कहा है कि:
-
संबंधित बग की पहचान कर ली गई है।
-
आवश्यक अपडेट और पैच जारी किए जा रहे हैं।
-
Copilot की एक्सेस कंट्रोल प्रणाली को और सख्त बनाया जा रहा है, ताकि भविष्य में इस तरह की समस्या न हो।
बड़ा सबक
यह घटना दिखाती है कि AI इंटीग्रेशन जितना फायदेमंद है, उतना ही संवेदनशील भी। एंटरप्राइज AI टूल्स को लागू करते समय:
-
मजबूत एक्सेस कंट्रोल,
-
निरंतर सुरक्षा ऑडिट,
-
और स्पष्ट गवर्नेंस फ्रेमवर्क बेहद जरूरी हैं।
Microsoft 365 Copilot का यह मामला AI सुरक्षा और डेटा प्राइवेसी के बीच संतुलन की अहमियत को एक बार फिर उजागर करता है।
0 टिप्पणियाँ