Friday, February 20, 2026

इन्फोसिस फाउंडेशन की चेयरमैन सुधा मूर्ति के डीपफेक वीडियो से 8 लाख की ठगी, ठगों के खिलाफ कार्रवाई की मांग

अगर आप अपने पैसे को कहीं निवेश करना चाहते हैं तो यूं ही किसी पर विश्वास न करें। ठग अब नामी शख्सियतों का चेहरा लगाकर भी ठगी कर रहे हैं। ऐसा ही कुछ हुआ एक कंपनी अधिकारी के साथ। देश की जानी मानी लेखिका और इन्फोसिस फाउंडेशन की चेयरमैन सुधा मूर्ति की डीपफेक विडियो बनाकर अधिकारी से शेयर मार्केट में निवेश के नाम पर 8 लाख से अधिक रुपये ठग लिए। पीड़ित को ठगी का अहसास तब हुआ, जब उन्होंने अपना मुनाफा निकालने का प्रयास किया। ठगों ने पैसे निकालने के बदले 4 हजार डॉलर की डिमांड कर दी। इसके बाद उन्होंने पुलिस से शिकायत की। पीड़ित के मुताबिक, ठगों ने अब अपना नंबर भी बंद कर दिया है।

सोशल मीडिया पर देखी विडियो में था लिंक
जानकारी के अनुसार, सेक्टर-30 की इंद्रप्रस्थ कॉलोनी निवासी शख्स निजी कंपनी में अधिकारी हैं। उन्होंने पुलिस को दी शिकायत में बताया कि सोशल मीडिया प्लैटफॉर्म पर उन्होंने राज्यसभा सदस्य सुधा मूर्ति की विडियो देखी। उसमें वह शेयर मार्केट में निवेश करने की बात कह रही थीं। निवेश में मोटा मुनाफा होने की बात कही जा रही थी। वहां एक लिंक भी दिया गया था।

विदेशी शेयर मार्केट में निवेश का दिया झांसा
पीड़ित ने जैसे ही लिंक पर क्लिक किया वह कैपप्लेस ट्रेडिंग प्लैटफॉर्म से जुड़ गए। इसके बाद उनका एक प्रतिनिधि से संपर्क हुआ। उसने खुद को यूके ट्रेडिंग प्लैटफॉर्म का फाइनेंशल एक्सपर्ट बताया। उसने रजिस्ट्रेशन व शुरुआती निवेश के तौर पर 200 डॉलर देने को कहा। ठगों ने टेस्ला व अन्य नामी गिरामी विदेशी कंपनियों में निवेश करने पर कई गुना मुनाफा दिलाने का झांसा दिया। चूंकि विडियो में एक जानी मानी हस्ती की तस्वीर लगी थी, इसलिए कोई शक नहीं हुआ। पीड़ित ने दिसंबर 2024 से जनवरी 2025 तक अलग-अलग कंपनियों के शेयर में निवेश कर दिया।

अपना पैसा मांगा तो नहीं मिला
पीड़ित ने बताया कि वह कई बार में 8 लाख 9938 रुपये निवेश कर चुके थे। ठग इसका मुनाफा दो से तीन गुना बताकर लुभा रहे थे। पीड़ित ने जब मुनाफे की रकम का रिफंड लेने चाहा तो आरोपियों ने कहा कि आपका निवेश लॉक हो गया है। इसे अनलॉक करने के लिए 4000 डॉलर फीस जमा करनी होगी। इसके बाद उन्हें ठगी का अहसास हुआ। ठगों ने ग्रुप में दिए गए सभी नंबरों को बंद कर दिया। यही नहीं निवेश के लिए जो डिमैट अकाउंट खोला था, उसमें भी जीरो बैलेंस दिखा दिया। पुलिस प्रवक्ता यशपाल सिंह का कहना है कि घटना की जांच की जा रही है।

ऐसे बना रहे डीपफेक विडियो
दरअसल, एआई और मशीन लर्निंग की मदद से ऑडियो और विडियो तैयार किया जाता है। इसमें किसी भी व्यक्ति का चेहरा लगाकर उसकी आवाज की नकल कर गलत तरीके से इस्तेमाल किया जाता है। एआई की मदद से व्यक्ति की आवाज का क्लोन तैयार किया जाता है। वह पूरी तरह वैसा ही लगता है, जैसा वह शख्स वास्तव में बोलता है। इसका सबसे अधिक शिकार राजनेता, ब्यूरोक्रेट्स और सिलेब्रिटी भी हो रहे हैं। कई जानी मानी हस्तियों की डीपफेक विडियो ऑडियो सोशल मीडिया पर अपलोड कर ठग लोगों को शिकार बना रहे हैं। पुलिस का कहना है कि ऐसे ऑडियो-विडियो पर यूं ही विश्वास न करें। पहले उसकी अच्छी तरह से जांच पड़ताल करें।

Latest news

Related news