Home
Mobile

AI क्यों बता रहा है आधा-सच और घुमा-फिरा जवाब? जानें Machine Bullshit का सच

आर्टिफिशियल इंटेलीजेंस (AI) को लेकर हमारी सबसे बड़ी उम्मीद यह थी कि ये मॉडल इंसानों की तरह सिर्फ बात नहीं करेंगे, बल्कि सही जानकारी भी देंगे। लेकिन Princeton और UC Berkeley की नई रिसर्च ने इस उम्मीद पर एक बड़ा सवाल खड़ा कर दिया है।

रिसर्च का दावा है कि ChatGPT, Gemini और Meta, Anthropic जैसे कई बड़े AI मॉडल अब "सच" से ज़्यादा "सुनने में अच्छा" लगने वाली बातें बोलने लगे हैं और यही व्यवहार अब Machine Bullshit नाम से पहचाना जा रहा है।

AI क्यों बता रहा है आधा-सच और घुमा-फिरा जवाब?

मन मुताबिक जवाब क्यों देने लगे AI?

अक्सर यूजर नोटिस करते हैं कि AI उनके भावनाओं या राय को सपोर्ट करते हुए जवाब देता है, भले ही वह पूरी तरह सही न हो। रिसर्चर्स बताते हैं कि यह कोई गलती नहीं है, बल्कि ट्रेनिंग के दौरान विकसित हुआ एक साइड-इफेक्ट है। AI मॉडल को तीन मुख्य स्टेज में ट्रेन किया जाता है।

Pretraining: मॉडल इंटरनेट और लाखों डॉक्यूमेंट से भाषा सीखता है।

Instruction Fine-Tuning: इसे सिखाया जाता है कि यूज़र की तरह सवाल का जवाब कैसे देना है, यानी एक अच्छे असिस्टेंट की तरह।

RLHF (Reinforcement Learning from Human Feedback): यही वह चरण है जो असली समस्या बन गया है। यहां इंसान AI के जवाबों को रेट करते हैं, और मॉडल वही तरह के जवाब देना सीखता है जो लोगों को ज्यादा पसंद आते हैं, यानी कि ये "सुनने में अच्छे" जवाब, न कि "सच वाले" जवाब देता है।

यही वजह है कि AI अक्सर आत्मविश्वास से भरे झूठ या आधा-सच बोल देता है, जिससे यूज़र को लगता है कि वह सही बात कर रहा है, जबकि असल में वह सिर्फ आपको खुश कर रहा है।

Bullshit Index: अब AI की 'बकवास' भी मापी जाएगी

रिसर्चर्स ने इस पैटर्न को Machine Bullshit नाम दिया है और एक Bullshit Index भी बनाया है। यह मापता है कि AI कितना अपनी भाषा और जवाब इस तरह ढालता है कि वह यूज़र की पसंद के अनुसार लगे, चाहे वह तथ्य से दूर ही क्यों न हो।

इसमें तीन तरह के पैटर्न शामिल हैं।

  • Partial Truths (आधा सच): यानी थोड़ी सही, थोड़ी गलत जानकारी का मिक्सचर
  • Ambiguous Language (अस्पष्ट जवाब): ताकि लगे कि जवाब दिया है, पर असल में कुछ कहा नहीं
  • Weasel Words (घुमा-फिरा कर बात): ताकि जिम्मेदारी भी न लेनी पड़े और यूज़र भी संतुष्ट रहे

क्या यह खतरनाक है?

बिल्कुल और कई वजहों से ये खतरनाक है। AI आज सिर्फ चैट या कंटेंट जनरेशन तक सीमित नहीं है। लोग इसे निर्णय लेने के लिए भी उपयोग कर रहे हैं ।

जैसे हेल्थ सलाह, फाइनेंस और निवेश, राजनीति की जानकारी और लीगल इनपुट। ऐसे में अगर मॉडल यूज़र को सिर्फ खुश करने के लिए झुकाव-भरे या आधे-सच वाले जवाब दें, तो गलत निर्णय होने की संभावना बेहद बढ़ जाती है।

उदाहरण के लिए, अगर कोई यूजर किसी गलत हेल्थ मिथ को सही मानता है, तो AI मॉडल उसके अनुसार जवाब को "पॉलिश" कर देगा ताकि यूज़र को अच्छा लगे, न कि उसे सच्ची चेतावनी दे।

क्या है आगे कि प्लानिंग?

रिसर्च का सुझाव है कि AI कंपनियों को RLHF को दोबारा डिजाइन करना होगा, ताकि मॉडल सच बोलने वाले हों, यूजर को लुभाने वाले नहीं। साथ ही AI डेवलपर्स को यह समझना होगा कि हर "friendly answer" जरूरी नहीं कि एक "truthful answer" हो।

फिलहाल स्थिति साफ है कि AI मॉडल शिष्ट, विनम्र और भरोसेमंद दिखते जरूर हैं, लेकिन उनके जवाबों में बढ़ती machine bullshit हमें यह सोचने पर मजबूर कर देती है कि क्या हम AI से हकीकत जान रहे हैं, या सिर्फ वही सुन रहे हैं जो हमें अच्छा लगे।

 
Best Mobiles in India

English summary
Researchers Warn: AI Models Are Becoming Confident but Untruthful
Notifications
Settings
Clear Notifications
Notifications
Use the toggle to switch on notifications
  • Block for 8 hours
  • Block for 12 hours
  • Block for 24 hours
  • Don't block
Gender
Select your Gender
  • Male
  • Female
  • Others
Age
Select your Age Range
  • Under 18
  • 18 to 25
  • 26 to 35
  • 36 to 45
  • 45 to 55
  • 55+
X