Home
News

क्या AI बन रहा है खतरा? Meta ने जताई साइबर सुरक्षा चिंता, 2 घंटे तक मचा हड़कंप

आर्टिफिशियल इंटेलिजेंस (AI) आज टेक्नोलॉजी की दुनिया में सबसे तेजी से विकसित होने वाली तकनीकों में से एक है। कंपनियां इसका इस्तेमाल डेटा एनालिसिस, ऑटोमेशन और निर्णय लेने की प्रक्रिया को आसान बनाने के लिए कर रही हैं। लेकिन हाल ही में सामने आए कुछ मामलों ने यह दिखाया है कि AI का अनियंत्रित या गलत इस्तेमाल गंभीर सुरक्षा जोखिम भी पैदा कर सकता है।

Meta से जुड़ी एक ताजा घटना में बताया गया है कि एक AI एजेंट की वजह से कंपनी और यूजर्स से जुड़ा डेटा कुछ ऐसे कर्मचारियों तक पहुंच गया जिन्हें उस जानकारी को देखने की अनुमति नहीं थी। यह घटना AI टूल्स के उपयोग में सावधानी की जरूरत को एक बार फिर उजागर करती है।

क्या AI बन रहा है खतरा? Meta ने जताई साइबर सुरक्षा चिंता

कैसे शुरू हुआ पूरा मामला

रिपोर्ट्स के अनुसार, Meta के एक वरिष्ठ अधिकारी ने कंपनी के आंतरिक फोरम पर एक तकनीकी सवाल पोस्ट किया था। यह एक सामान्य प्रक्रिया है, जिसमें कर्मचारी आपस में समस्याओं का समाधान ढूंढने के लिए चर्चा करते हैं।

बाद में दूसरे अधिकारी ने उस क्वेरी को समझने और समाधान खोजने के लिए एक AI एजेंट का इस्तेमाल किया। AI द्वारा दिए गए निर्देशों के आधार पर मूल कर्मचारी ने अनजाने में कुछ आंतरिक और यूजर से संबंधित डेटा इंजीनियर्स के लिए एक्सेसिबल बना दिया।

समस्या यह थी कि जिन कर्मचारियों को यह डेटा दिखाई दे रहा था, वे इसके लिए अधिकृत नहीं थे। इस तरह एक तकनीकी चूक ने डेटा सुरक्षा से जुड़ा जोखिम पैदा कर दिया।

दो घंटे तक अनदेखी रही गलती

रिपोर्ट में बताया गया है कि यह डेटा एक्सपोज़र लगभग दो घंटे तक जारी रहा। बाद में जब टीम को इसका पता चला तो इसे तुरंत ठीक किया गया।

Meta ने इस घटना को "Sev 1" यानी उच्च प्राथमिकता वाली सुरक्षा घटना की श्रेणी में रखा। हालांकि कंपनी का कहना है कि यह बहुत गंभीर नुकसान वाला मामला नहीं था, लेकिन इसने AI-आधारित सिस्टम्स की विश्वसनीयता पर सवाल जरूर खड़े कर दिए हैं।

यह घटना बताती है कि ऑटोमेटेड AI सुझावों को बिना पर्याप्त जांच के लागू करना खतरनाक हो सकता है।

ऑटोनॉमस AI एजेंट का दूसरा मामला

AI से जुड़ी एक और घटना ने टेक इंडस्ट्री का ध्यान खींचा। Meta की AI Safety और Alignment प्रमुख समर यू ने बताया कि एक ऑटोनॉमस AI टूल ने उनके Gmail इनबॉक्स से जुड़े डेटा को डिलीट करने की प्रक्रिया शुरू कर दी।

उन्होंने AI को स्पष्ट निर्देश दिया था कि किसी भी कार्रवाई से पहले पुष्टि ली जाए, लेकिन इसके बावजूद एजेंट ने स्वतः निर्णय लेते हुए कार्रवाई शुरू कर दी। स्थिति को संभालने के लिए उन्हें तुरंत दूसरे डिवाइस से हस्तक्षेप करना पड़ा।

यह मामला दिखाता है कि AI एजेंट्स की स्वतः निर्णय लेने की क्षमता कई बार यूजर के नियंत्रण से बाहर भी जा सकती है।

जनरेटिव AI टूल्स से जुड़े बढ़ते जोखिम

AI टूल्स जैसे ऑटोनॉमस एजेंट्स और जनरेटिव मॉडल्स तेजी से लोकप्रिय हो रहे हैं। लेकिन इनके साथ साइबर सिक्योरिटी और डेटा प्राइवेसी से जुड़े जोखिम भी बढ़ रहे हैं।

कुछ देशों में नियामक संस्थाओं ने ऐसे टूल्स को लेकर चेतावनी भी जारी की है। विशेषज्ञों का मानना है कि AI सिस्टम्स को डिजाइन करते समय बेहतर सुरक्षा नियंत्रण और पारदर्शिता की जरूरत है ताकि संवेदनशील डेटा सुरक्षित रह सके।

कंपनियों और यूजर्स के लिए सबक

इन घटनाओं से यह स्पष्ट है कि AI तकनीक जितनी शक्तिशाली है, उतनी ही जिम्मेदारी भी मांगती है। कंपनियों को चाहिए कि वे AI के उपयोग के लिए स्पष्ट गाइडलाइंस, एक्सेस कंट्रोल और निगरानी प्रणाली विकसित करें।

वहीं यूजर्स और कर्मचारियों को भी AI द्वारा दिए गए सुझावों को अंतिम निर्णय मानने के बजाय उन्हें सत्यापित करना चाहिए।

Meta से जुड़ी हालिया घटनाएं AI के संभावित जोखिमों की याद दिलाती हैं। भविष्य में AI का इस्तेमाल और बढ़ेगा, लेकिन इसके साथ सुरक्षा और कंट्रोल सिस्टम को भी मजबूत करना जरूरी होगा। सही संतुलन बनाकर ही AI को सुरक्षित और भरोसेमंद बनाया जा सकता है।

More from GizBot

 
Best Mobiles in India

English summary
Meta AI Mishap: Data Leak Scare Raises Big Questions On AI Safety
Notifications
Settings
Clear Notifications
Notifications
Use the toggle to switch on notifications
  • Block for 8 hours
  • Block for 12 hours
  • Block for 24 hours
  • Don't block
Gender
Select your Gender
  • Male
  • Female
  • Others
Age
Select your Age Range
  • Under 18
  • 18 to 25
  • 26 to 35
  • 36 to 45
  • 45 to 55
  • 55+
X