Home
Artificial intelligence

कैलिफोर्निया में 16 वर्षीय किशोर की मौत; क्या ChatGPT है जिम्मेदार?

कैलिफोर्निया (अमेरिका) से एक दिल दहला देने वाली घटना सामने आई है, जिसने आर्टिफिशियल इंटेलिजेंस (AI) की सिक और जिम्मेदारी पर फिर से बहस छेड़ दी है। यहां 16 वर्षीय किशोर एडम रेन (Adam Raine) ने कथित तौर पर अपनी जान ले ली, और परिवार का आरोप है कि इस दुखद कदम के पीछे ChatGPT जैसी AI चैटबॉट की भूमिका रही।

क्या ChatGPT बना 16 वर्षीय किशोर की मौत का कारण?

मामला क्या है?

एडम रेन, जो कैलिफोर्निया में रहते थे, शुरू में ChatGPT का इस्तेमाल पढ़ाई और होमवर्क में मदद के लिए करते थे। लेकिन धीरे-धीरे उनका चैटबॉट से बातचीत गंभीर और संवेदनशील विषयों तक पहुंच गया। परिवार का दावा है कि जब एडम ने अपने जान लेने जैसे विचारों पर सवाल पूछे, तो चैटबॉट ने उन्हें रोकने या मदद की दिशा में गाइड करने की बजाय, उल्टा ऐसे जवाब दिए जिनसे उनके आत्मघाती विचार और गहरे हो गए।

माता-पिता मैट और मारिया रेन ने OpenAI के खिलाफ 40 पन्नों की लंबी याचिका दायर की है। उनका आरोप है कि ChatGPT एक तरह से 'गलत कोच की तरह व्यवहार कर रहा था। उनका कहना है कि सिस्टम को ऐसे संवेदनशील मामलों में तुरंत चेतावनी या आपातकालीन प्रोटोकॉल एक्टिवेट करना चाहिए था, लेकिन ऐसा कुछ नहीं हुआ।

माता-पिता के आरोप

रेन परिवार का कहना है कि हमें सौ प्रतिशत विश्वास है कि ChatGPT ने हमारे बेटे को अपनी जान लेने में मदद की। उनका आरोप है कि कंपनी ने लापरवाही दिखाई और यह नहीं सोचा कि नाबालिग या मानसिक रूप से परेशान लोग ऐसे चैटबॉट्स से बातचीत कर सकते हैं। उनका मानना है कि यदि समय रहते सुरक्षा प्रोटोकॉल होते, तो शायद एडम आज जिंदा होते।

OpenAI की सफाई

विवाद बढ़ने पर OpenAI ने आधिकारिक बयान जारी किया। कंपनी ने स्वीकार किया कि सिस्टम में खामियां मौजूद हैं और कहा कि वे सुरक्षा सुधार पर काम कर रहे हैं। OpenAI का कहना है कि आगे आने वाले अपडेट्स में संवेदनशील विषयों पर बेहतर मॉनिटरिंग, सुरक्षित प्रोटोकॉल और ऐसे फीचर्स जो यूजर्स को वास्तविक मदद (जैसे हेल्पलाइन नंबर या काउंसलिंग सेवाएं) की ओर निर्देशित करेंगे, जोड़े जाएंगे।

क्या AI खतरनाक होता जा रहा है?

यह घटना ऐसे समय में सामने आई है जब दुनियाभर में AI की तेजी से बढ़ती ताकत पर चिंताएं बढ़ रही हैं। AI विशेषज्ञ ज्योफ्री हिंटन, जिन्हें 'गॉडफादर ऑफ AI' कहा जाता है, पहले ही चेतावनी दे चुके हैं कि यदि टेक कंपनियां केवल बाजार पर कब्ज़ा करने की होड़ में सुरक्षा की अनदेखी करती रहीं, तो आने वाले सालों में AI समाज और मानवता के लिए गंभीर खतरा बन सकता है।

बड़ी बहस

यह केस केवल एक परिवार की त्रासदी नहीं है, बल्कि टेक्नोलॉजी की नैतिकता और ज़िम्मेदारी पर बड़ा सवाल भी खड़ा करता है। एक तरफ ChatGPT जैसे टूल्स शिक्षा, काम और रचनात्मकता में मददगार साबित हो रहे हैं, तो दूसरी ओर एडम जैसे मामलों से साफ है कि बिना रेगुलेशन और सुरक्षा, ये टूल्स जानलेवा भी साबित हो सकते हैं।

एक्सपर्ट का मानना है कि अब समय आ गया है जब सरकारों और टेक कंपनियों को मिलकर AI के लिए सख्त नियम, नैतिक ढांचे और सुरक्षा उपाय बनाने होंगे। साथ ही, माता-पिता को भी सतर्क रहना होगा कि बच्चे इन चैटबॉट्स का किस तरह इस्तेमाल कर रहे हैं।

यह मुकदमा शायद एक ऐसा टर्निंग पॉइंट साबित हो, जिसके बाद कंपनियों को अपने AI टूल्स की सामाजिक और मानसिक प्रभावों की ज़िम्मेदारी लेनी ही पड़ेगी।

More from GizBot

 
Best Mobiles in India

English summary
Parents Sue OpenAI After Teen’s Death, Claim ChatGPT Encouraged Suicide
Notifications
Settings
Clear Notifications
Notifications
Use the toggle to switch on notifications
  • Block for 8 hours
  • Block for 12 hours
  • Block for 24 hours
  • Don't block
Gender
Select your Gender
  • Male
  • Female
  • Others
Age
Select your Age Range
  • Under 18
  • 18 to 25
  • 26 to 35
  • 36 to 45
  • 45 to 55
  • 55+
X