Friday, November 22, 2024

DeepFake : पीएम मोदी ने डीपफेक को लेकर जताई चिंता,अपनी ही वीडियो का किया ज़िक्र

PM Narendra Modi ने DeepFake  को लेकर गहरी चिंता जताते हुए कहा की आने वाले दिनों में भारत के लिए खतरों में यह एक सबसे बड़ा खतरा बन जायेगा और इससे समाज में अशांति और अराजकता पैदा हो सकती हैं.

पीएम नरेंद्र मोदी ने कहा की जनरेटेड एआई (Generated AI) की मदद से DeepFake के जरिये जो भी तस्वीरें और वीडियोज  बनाये जाते हैं,उसका एक स्पष्ट डिस्क्लेमर होना चाहिये जिसमें लिखा गया हो की यह वीडियो और फोटो DeepFake की मदद से बनाई गई है.

DeepFake क्यों है खतरा ?

डीपफेक एक आर्टिफिशियल इंटेलिजेंस है, जिसकी मदद से किसी भी फोटो या वीडियो में किसी दूसरे का चेहरा लगाया जा सकता हैं. हाल के दिनों में खबरों को वायरल करने और उसे सनसनीखेज बनाने के लिए धड़ल्ले से इसका इस्तेमाल हो रहा है. ये खरतनाक है. इससे किसी की इमेज को किसी भी तरह से बदला जा सकता है.

पिछले दिनों एक्ट्रेस रश्मिका मंदाना का एक ऐसा ही एक वीडियो वायरल हुआ था ,जिसमें वो छोटे कपडों में नजर आ रही थी. वो तस्वीर एक व्यक्ति की गरिमा को चोट पहुंचाने वाला था. ऐसे ही कई फोटो और वीडियो सामने आये जिसमें  बॉलीवुड की एक्ट्रेस ऐश्वर्या ,कटरीना कैफ , काजोल की तस्वीरों को गलत तरीके से eepFake के जरिये बना कर सोशल मीडिया में डजाल दिया गया था. हाल ही में सचिन तेंदुलकर की बेटी सारा तेंदुलकर का भी एक  वीडियो और फोटो डीपफेक की मदद से बनाया गया था, जिसपर केंद्र सरकार तक को सफाई देना पड़ी थी.

DeepFake से PM Modi भी नहीं बचे,अपनी वीडियो का किया ज़िक्र

काफी महीने पहले पीएम मोदी का एक वीडियो वायरल हुआ था, जिसमे पीएम मोदी की तरह दिखता हुआ एक व्यक्ति कुछ महिलाओं के साथ गरबा खेलते हुआ नजर आ रहा हैं, और ऐसा कहा गया की यह खुद प्रधानमंत्री है जो गरबा खेल रहे है वही पीएम मोदी ने कहा की-“मैंने अपना एक वीडियो देखा जिसमे में गरबा खेल रहा हु और यह बहुत वास्तविक लग रहा था, जबकि मैंने बचपन से गरबा नहीं खेला हैं “.जब उस वीडियो की जांच की गयी तो उनके जैसा दिखने वाला एक्टर विकास महंते था. पीएम ने कहा की सभी लोगों को एआई से बेहद सतर्क रहना होगा यह बहुत ही खतरनाक हैं.

DeepFake क्या है?

आजकल एआई मदद से किसी भी तस्वीर वीडियो या ऑडियो को मैनुपुलेट या छेड़छाड़ करके बिलकुल अलग बनाया जा सकता हैं. किसी भी नेता ,सेलिब्रिटीज की स्पीच को उठाकर एआई की मदद से पूरी तरह बदला जा सकता हैं ,लेकिन सुनने और देखने वह एकदम असली लगते हैं , इसलिए इसे ज्यादातर लोग सच मान लेते हैं . ये बेहद खतरनाक है.

Html code here! Replace this with any non empty raw html code and that's it.

Latest news

Related news