PM Narendra Modi ने DeepFake को लेकर गहरी चिंता जताते हुए कहा की आने वाले दिनों में भारत के लिए खतरों में यह एक सबसे बड़ा खतरा बन जायेगा और इससे समाज में अशांति और अराजकता पैदा हो सकती हैं.
पीएम नरेंद्र मोदी ने कहा की जनरेटेड एआई (Generated AI) की मदद से DeepFake के जरिये जो भी तस्वीरें और वीडियोज बनाये जाते हैं,उसका एक स्पष्ट डिस्क्लेमर होना चाहिये जिसमें लिखा गया हो की यह वीडियो और फोटो DeepFake की मदद से बनाई गई है.
#WATCH | PM Modi says, " …There is a challenge arising because of Artificial Intelligence and deepFake…a big section of our country has no parallel option for verification…people often end up believing in deepfakes and this will go into a direction of a big challenge…we… pic.twitter.com/akT17qGNGO
— ANI (@ANI) November 17, 2023
DeepFake क्यों है खतरा ?
डीपफेक एक आर्टिफिशियल इंटेलिजेंस है, जिसकी मदद से किसी भी फोटो या वीडियो में किसी दूसरे का चेहरा लगाया जा सकता हैं. हाल के दिनों में खबरों को वायरल करने और उसे सनसनीखेज बनाने के लिए धड़ल्ले से इसका इस्तेमाल हो रहा है. ये खरतनाक है. इससे किसी की इमेज को किसी भी तरह से बदला जा सकता है.
पिछले दिनों एक्ट्रेस रश्मिका मंदाना का एक ऐसा ही एक वीडियो वायरल हुआ था ,जिसमें वो छोटे कपडों में नजर आ रही थी. वो तस्वीर एक व्यक्ति की गरिमा को चोट पहुंचाने वाला था. ऐसे ही कई फोटो और वीडियो सामने आये जिसमें बॉलीवुड की एक्ट्रेस ऐश्वर्या ,कटरीना कैफ , काजोल की तस्वीरों को गलत तरीके से eepFake के जरिये बना कर सोशल मीडिया में डजाल दिया गया था. हाल ही में सचिन तेंदुलकर की बेटी सारा तेंदुलकर का भी एक वीडियो और फोटो डीपफेक की मदद से बनाया गया था, जिसपर केंद्र सरकार तक को सफाई देना पड़ी थी.
DeepFake से PM Modi भी नहीं बचे,अपनी वीडियो का किया ज़िक्र
काफी महीने पहले पीएम मोदी का एक वीडियो वायरल हुआ था, जिसमे पीएम मोदी की तरह दिखता हुआ एक व्यक्ति कुछ महिलाओं के साथ गरबा खेलते हुआ नजर आ रहा हैं, और ऐसा कहा गया की यह खुद प्रधानमंत्री है जो गरबा खेल रहे है वही पीएम मोदी ने कहा की-“मैंने अपना एक वीडियो देखा जिसमे में गरबा खेल रहा हु और यह बहुत वास्तविक लग रहा था, जबकि मैंने बचपन से गरबा नहीं खेला हैं “.जब उस वीडियो की जांच की गयी तो उनके जैसा दिखने वाला एक्टर विकास महंते था. पीएम ने कहा की सभी लोगों को एआई से बेहद सतर्क रहना होगा यह बहुत ही खतरनाक हैं.
DeepFake क्या है?
आजकल एआई मदद से किसी भी तस्वीर वीडियो या ऑडियो को मैनुपुलेट या छेड़छाड़ करके बिलकुल अलग बनाया जा सकता हैं. किसी भी नेता ,सेलिब्रिटीज की स्पीच को उठाकर एआई की मदद से पूरी तरह बदला जा सकता हैं ,लेकिन सुनने और देखने वह एकदम असली लगते हैं , इसलिए इसे ज्यादातर लोग सच मान लेते हैं . ये बेहद खतरनाक है.