Sunday, July 6, 2025

इन्फोसिस फाउंडेशन की चेयरमैन सुधा मूर्ति के डीपफेक वीडियो से 8 लाख की ठगी, ठगों के खिलाफ कार्रवाई की मांग

- Advertisement -

अगर आप अपने पैसे को कहीं निवेश करना चाहते हैं तो यूं ही किसी पर विश्वास न करें। ठग अब नामी शख्सियतों का चेहरा लगाकर भी ठगी कर रहे हैं। ऐसा ही कुछ हुआ एक कंपनी अधिकारी के साथ। देश की जानी मानी लेखिका और इन्फोसिस फाउंडेशन की चेयरमैन सुधा मूर्ति की डीपफेक विडियो बनाकर अधिकारी से शेयर मार्केट में निवेश के नाम पर 8 लाख से अधिक रुपये ठग लिए। पीड़ित को ठगी का अहसास तब हुआ, जब उन्होंने अपना मुनाफा निकालने का प्रयास किया। ठगों ने पैसे निकालने के बदले 4 हजार डॉलर की डिमांड कर दी। इसके बाद उन्होंने पुलिस से शिकायत की। पीड़ित के मुताबिक, ठगों ने अब अपना नंबर भी बंद कर दिया है।

सोशल मीडिया पर देखी विडियो में था लिंक
जानकारी के अनुसार, सेक्टर-30 की इंद्रप्रस्थ कॉलोनी निवासी शख्स निजी कंपनी में अधिकारी हैं। उन्होंने पुलिस को दी शिकायत में बताया कि सोशल मीडिया प्लैटफॉर्म पर उन्होंने राज्यसभा सदस्य सुधा मूर्ति की विडियो देखी। उसमें वह शेयर मार्केट में निवेश करने की बात कह रही थीं। निवेश में मोटा मुनाफा होने की बात कही जा रही थी। वहां एक लिंक भी दिया गया था।

विदेशी शेयर मार्केट में निवेश का दिया झांसा
पीड़ित ने जैसे ही लिंक पर क्लिक किया वह कैपप्लेस ट्रेडिंग प्लैटफॉर्म से जुड़ गए। इसके बाद उनका एक प्रतिनिधि से संपर्क हुआ। उसने खुद को यूके ट्रेडिंग प्लैटफॉर्म का फाइनेंशल एक्सपर्ट बताया। उसने रजिस्ट्रेशन व शुरुआती निवेश के तौर पर 200 डॉलर देने को कहा। ठगों ने टेस्ला व अन्य नामी गिरामी विदेशी कंपनियों में निवेश करने पर कई गुना मुनाफा दिलाने का झांसा दिया। चूंकि विडियो में एक जानी मानी हस्ती की तस्वीर लगी थी, इसलिए कोई शक नहीं हुआ। पीड़ित ने दिसंबर 2024 से जनवरी 2025 तक अलग-अलग कंपनियों के शेयर में निवेश कर दिया।

अपना पैसा मांगा तो नहीं मिला
पीड़ित ने बताया कि वह कई बार में 8 लाख 9938 रुपये निवेश कर चुके थे। ठग इसका मुनाफा दो से तीन गुना बताकर लुभा रहे थे। पीड़ित ने जब मुनाफे की रकम का रिफंड लेने चाहा तो आरोपियों ने कहा कि आपका निवेश लॉक हो गया है। इसे अनलॉक करने के लिए 4000 डॉलर फीस जमा करनी होगी। इसके बाद उन्हें ठगी का अहसास हुआ। ठगों ने ग्रुप में दिए गए सभी नंबरों को बंद कर दिया। यही नहीं निवेश के लिए जो डिमैट अकाउंट खोला था, उसमें भी जीरो बैलेंस दिखा दिया। पुलिस प्रवक्ता यशपाल सिंह का कहना है कि घटना की जांच की जा रही है।

ऐसे बना रहे डीपफेक विडियो
दरअसल, एआई और मशीन लर्निंग की मदद से ऑडियो और विडियो तैयार किया जाता है। इसमें किसी भी व्यक्ति का चेहरा लगाकर उसकी आवाज की नकल कर गलत तरीके से इस्तेमाल किया जाता है। एआई की मदद से व्यक्ति की आवाज का क्लोन तैयार किया जाता है। वह पूरी तरह वैसा ही लगता है, जैसा वह शख्स वास्तव में बोलता है। इसका सबसे अधिक शिकार राजनेता, ब्यूरोक्रेट्स और सिलेब्रिटी भी हो रहे हैं। कई जानी मानी हस्तियों की डीपफेक विडियो ऑडियो सोशल मीडिया पर अपलोड कर ठग लोगों को शिकार बना रहे हैं। पुलिस का कहना है कि ऐसे ऑडियो-विडियो पर यूं ही विश्वास न करें। पहले उसकी अच्छी तरह से जांच पड़ताल करें।

Html code here! Replace this with any non empty raw html code and that's it.

Latest news

Related news