Wednesday, February 11, 2026

DeepFake : पीएम मोदी ने डीपफेक को लेकर जताई चिंता,अपनी ही वीडियो का किया ज़िक्र

PM Narendra Modi ने DeepFake  को लेकर गहरी चिंता जताते हुए कहा की आने वाले दिनों में भारत के लिए खतरों में यह एक सबसे बड़ा खतरा बन जायेगा और इससे समाज में अशांति और अराजकता पैदा हो सकती हैं.

पीएम नरेंद्र मोदी ने कहा की जनरेटेड एआई (Generated AI) की मदद से DeepFake के जरिये जो भी तस्वीरें और वीडियोज  बनाये जाते हैं,उसका एक स्पष्ट डिस्क्लेमर होना चाहिये जिसमें लिखा गया हो की यह वीडियो और फोटो DeepFake की मदद से बनाई गई है.

DeepFake क्यों है खतरा ?

डीपफेक एक आर्टिफिशियल इंटेलिजेंस है, जिसकी मदद से किसी भी फोटो या वीडियो में किसी दूसरे का चेहरा लगाया जा सकता हैं. हाल के दिनों में खबरों को वायरल करने और उसे सनसनीखेज बनाने के लिए धड़ल्ले से इसका इस्तेमाल हो रहा है. ये खरतनाक है. इससे किसी की इमेज को किसी भी तरह से बदला जा सकता है.

पिछले दिनों एक्ट्रेस रश्मिका मंदाना का एक ऐसा ही एक वीडियो वायरल हुआ था ,जिसमें वो छोटे कपडों में नजर आ रही थी. वो तस्वीर एक व्यक्ति की गरिमा को चोट पहुंचाने वाला था. ऐसे ही कई फोटो और वीडियो सामने आये जिसमें  बॉलीवुड की एक्ट्रेस ऐश्वर्या ,कटरीना कैफ , काजोल की तस्वीरों को गलत तरीके से eepFake के जरिये बना कर सोशल मीडिया में डजाल दिया गया था. हाल ही में सचिन तेंदुलकर की बेटी सारा तेंदुलकर का भी एक  वीडियो और फोटो डीपफेक की मदद से बनाया गया था, जिसपर केंद्र सरकार तक को सफाई देना पड़ी थी.

DeepFake से PM Modi भी नहीं बचे,अपनी वीडियो का किया ज़िक्र

काफी महीने पहले पीएम मोदी का एक वीडियो वायरल हुआ था, जिसमे पीएम मोदी की तरह दिखता हुआ एक व्यक्ति कुछ महिलाओं के साथ गरबा खेलते हुआ नजर आ रहा हैं, और ऐसा कहा गया की यह खुद प्रधानमंत्री है जो गरबा खेल रहे है वही पीएम मोदी ने कहा की-“मैंने अपना एक वीडियो देखा जिसमे में गरबा खेल रहा हु और यह बहुत वास्तविक लग रहा था, जबकि मैंने बचपन से गरबा नहीं खेला हैं “.जब उस वीडियो की जांच की गयी तो उनके जैसा दिखने वाला एक्टर विकास महंते था. पीएम ने कहा की सभी लोगों को एआई से बेहद सतर्क रहना होगा यह बहुत ही खतरनाक हैं.

DeepFake क्या है?

आजकल एआई मदद से किसी भी तस्वीर वीडियो या ऑडियो को मैनुपुलेट या छेड़छाड़ करके बिलकुल अलग बनाया जा सकता हैं. किसी भी नेता ,सेलिब्रिटीज की स्पीच को उठाकर एआई की मदद से पूरी तरह बदला जा सकता हैं ,लेकिन सुनने और देखने वह एकदम असली लगते हैं , इसलिए इसे ज्यादातर लोग सच मान लेते हैं . ये बेहद खतरनाक है.

Latest news

Related news