Home
News

ChatGPT और Perplexity पर शेयर की गई लिंक क्यों सेफ नहीं? फिशिंग साइट्स पर कर सकते डायरेक्ट

आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल पिछले कुछ सालों में तेजी से बढ़ा है, लेकिन इसके साथ-साथ ही यह लोगों के लिए खतरा भी बनता जा रहा है। ChatGPT, Gemini, Perplexity जैसे AI टूल्स न सिर्फ आम यूजर्स की जिंदगी का हिस्सा बन चुके हैं, बल्कि गूगल और बिंग जैसे पुराने और पारंपरिक सर्च इंजन भी अब AI मोड के साथ आ चुके हैं। लेकिन AI का ये बढ़ता उपयोग एक नए खतरे की ओर भी इशारा करता है, जिसमें फेक या फिशिंग लिंक की समस्या सबसे आम है।

हाल में आई एक रिपोर्ट में पता चला है कि ChatGPT और Perplexity जैसे AI Tools पर शेयर की गई लिंक आपको फिशिंग साइट पर डायरेक्ट कर सकती हैं। आइए इस पूरे मामले के बारे में जानते हैं।

ChatGPT और Perplexity पर शेयर की गई लिंक क्यों सेफ नहीं?

नेटक्राफ्ट की रिपोर्ट ने खोली पोल

हाल ही में प्रकाशित हुई Netcraft की एक रिपोर्ट के अनुसार, AI टूल्स से निकले लिंक हमेशा सुरक्षित नहीं होते। रिपोर्ट में बताया गया कि OpenAI के GPT-4.1 मॉडल से जब 50 अलग-अलग ब्रांड्स की लॉगइन वेबसाइट्स के लिंक मांगे गए (टेक, रिटेल, फाइनेंस और यूटिलिटी सेक्टर से जुड़ी कंपनियां), तो मॉडल ने सिर्फ 66% लिंक सही दिए। बाकी बचे हुए लिंक फेक वेबसाइट्स की ओर रीडायरेक्ट कर रहे थे, जो फिशिंग अटैक में बदल सकते हैं।

यह बेहद चिंताजनक है क्योंकि यूजर इन AI टूल्स पर पूरी तरह से भरोसा कर लेते हैं। अगर कोई यूजर ChatGPT या Perplexity जैसे टूल से किसी बैंक या ऑनलाइन प्लेटफॉर्म की वेबसाइट पूछता है और वह लिंक उसे किसी फिशिंग साइट पर ले जाए, तो उसका डेटा चोरी होने का खतरा बहुत ज्यादा होता है।

GitBook पर बने 17,000 से ज्यादा फेक पेज

रिपोर्ट में यह भी सामने आया कि GitBook पर AI के जरिए बनाए गए 17,000 से अधिक फेक पेज सामने आए हैं। ये पेज खासतौर पर क्रिप्टो यूजर्स को निशाना बनाते हैं और खुद को किसी लीगल हेल्प या प्रोडक्ट डॉक्युमेंटेशन साइट के रूप में पेश करते हैं। ये पेज काफी प्रोफेशनल दिखते हैं और AI सर्च में आसानी से आ जाते हैं। इसी वजह से यूजर्स को लगता है कि यह लिंक असली हैं, जबकि वे असल में फिशिंग पेज होते हैं।

Perplexity में भी देखी गई गड़बड़ी

Perplexity AI मॉडल से जब Wells Fargo बैंक की वेबसाइट मांगी गई, तो उसने भी एक फेक URL साझा किया जो फिशिंग साइट थी। Netcraft की रिसर्च में ऐसे कई उदाहरण पाए गए जहां AI मॉडल्स ने बिना वेरिफाई किए गलत और हानिकारक लिंक यूजर्स को दिए।

OpenAI CEO ने भी दी थी चेतावनी

Netcraft की इस रिपोर्ट के बाद, OpenAI के CEO द्वारा हाल ही में दी गई चेतावनी को और बल मिलता है। उन्होंने कहा था कि यूजर्स को AI मॉडल्स पर पूरी तरह से भरोसा नहीं करना चाहिए, खासकर जब बात वेब लिंक या सेंसिटिव जानकारी की हो।

यूजर्स क्या सावधानी बरतें?

  • AI टूल्स से मिले किसी भी लिंक को बिना जांचे न खोलें।
  • हमेशा ऑफिशियल वेबसाइट या ऐप से ही लॉगइन करें।
  • यदि किसी लिंक पर क्लिक करें, तो URL को ध्यान से जांचें।
  • फिशिंग से बचने के लिए दो-स्टेप वेरिफिकेशन और सिक्योर ब्राउजर एक्सटेंशन का इस्तेमाल करें।

AI ने हमारी जिंदगी को आसान जरूर बनाया है, लेकिन इससे जुड़े खतरे भी कम नहीं हैं। Netcraft की रिपोर्ट ने यह साफ कर दिया है कि चाहे वो ChatGPT हो या Perplexity, AI से मिले लिंक पर आँख बंद करके भरोसा करना खतरनाक हो सकता है। आने वाले समय में यदि इन AI टूल्स को ज्यादा सुरक्षित नहीं बनाया गया, तो यह समस्या एक बड़े साइबर खतरे में बदल सकती है। ऐसे में जरूरी है कि यूजर्स खुद सतर्क रहें और हर लिंक को सोच-समझकर खोलें।

 
Best Mobiles in India

English summary
Why are links shared on ChatGPT and Perplexity not safe? They can direct you to phishing sites
Notifications
Settings
Clear Notifications
Notifications
Use the toggle to switch on notifications
  • Block for 8 hours
  • Block for 12 hours
  • Block for 24 hours
  • Don't block
Gender
Select your Gender
  • Male
  • Female
  • Others
Age
Select your Age Range
  • Under 18
  • 18 to 25
  • 26 to 35
  • 36 to 45
  • 45 to 55
  • 55+
X