Meloni Deepfake Photo : इटली की प्रधानमंत्री जॉर्जिया मेलोनी एक बार फिर चर्चा में हैं,लेकिन इस बार वजह कोई राजनीतिक नीति नहीं, बल्कि आर्टिफिशियल इंटेलिजेंस (AI) का दुरुपयोग है. मेलोनी की कुछ अश्लील डीपफेक तस्वीरें सोशल मीडिया पर वायरल की गई हैं. इस पर खुद प्रधानमंत्री ने X और फेसबुक पर मोर्चा संभालते हुए लिखा, “पिछले कुछ दिनों से मेरी कई नकली तस्वीरें घूम रही हैं, जिन्हें AI से बनाकर कुछ राजनीतिक विरोधी असली बता रहे हैं.” उन्होंने तंज कसते हुए कहा कि जिसने भी ये तस्वीरें बनाई हैं, उसने मुझे और बेहतर दिखा दिया है, लेकिन साथ ही आगाह किया कि लोग हमला करने के लिए अब किसी भी हद तक गिर सकते हैं.
İtalya Başbakanı Meloni de yapay zekâ araçlarıyla üretilen (deepfake) görsellerden şikâyet etti.
X hesabından yaptığı paylaşımda yapay zekâ ürünü gecelikli görseli “Bunları yapan kişi beni epey güzelleştirmiş” sözleri ve “İnanmadan önce doğrula, paylaşmadan önce inan. Çünkü… pic.twitter.com/gwtOr91qi7
— Malumatfuruş (@malumatfurusorg) May 6, 2026
Meloni Deepfake Photo:पीएम सुरक्षित नहीं, तो आम जनता का क्या?
मेलोनी के इस मामले ने एक गंभीर बहस को जन्म दे दिया है. उन्होंने चेतावनी दी कि “मैं अपना बचाव कर सकती हूं, लेकिन बहुत से लोग ऐसा नहीं कर सकते. आज यह मेरे साथ हो रहा है, कल किसी के साथ भी हो सकता है.” यह घटना दर्शाती है कि जब देश का प्रधानमंत्री सुरक्षित नहीं है, तो आम नागरिकों की निजता कितनी खतरे में है.

क्या है डीपफेक और यह कैसे काम करता है?
‘डीपफेक’ (Deepfake) शब्द ‘डीप लर्निंग’ और ‘फेक’ से मिलकर बना है. यह AI आधारित तकनीक है जो असली जैसी दिखने वाली नकली फोटो, वीडियो या ऑडियो बना सकती है. यह मुख्य रूप से दो तरीकों से काम करती है:
-
GAN (जनरेटिव एडवर्सरियल नेटवर्क): इसमें दो AI नेटवर्क होते हैं। एक नकली छवि बनाता है और दूसरा उसे परखता है। जब तक ‘परखने वाला’ नेटवर्क धोखा न खा जाए, तब तक ‘बनाने वाला’ नेटवर्क सुधार करता रहता है.
-
डीप ऑटोएनकोडर: इसमें किसी व्यक्ति की सैकड़ों फोटो पर AI को ट्रेनिंग दी जाती है, जिससे वह किसी दूसरे के चेहरे के हाव-भाव को हूबहू उस व्यक्ति के चेहरे पर फिट कर देता है.
धोखाधड़ी का बढ़ता बाजार: 2026 तक डराने वाले आंकड़े
डीपफेक तकनीक का कारोबार खतरनाक गति से बढ़ रहा है. रिपोर्ट के अनुसार, ग्लोबल डीपफेक मार्केट 2026 में 11.18 अरब डॉलर होने का अनुमान है, जो 2034 तक 51.42 अरब डॉलर पहुंच सकता है.
-
पिछले तीन वर्षों में डीपफेक धोखाधड़ी में 2,137% की भारी बढ़ोतरी हुई है.
-
साल 2025 में ही इससे करीब 1.3 अरब डॉलर की ठगी की पुष्टि हुई है.
-
अनुमान है कि 2026 के अंत तक इंटरनेट पर 90% कंटेंट AI-जनित होगा.
सोशल मीडिया प्रोफाइल बन रहा है ‘चारा’
आपकी तस्वीरें कैसे चोरी होती हैं? इसका जवाब आपके सोशल मीडिया हैंडल पर है. मेलोनी के मामले में भी आरोपियों ने उनकी और अन्य महिलाओं की तस्वीरें फेसबुक और इंस्टाग्राम जैसे प्लेटफॉर्म से उठाई थीं. सार्वजनिक रूप से उपलब्ध कोई भी फोटो AI के लिए ‘डेटा’ का काम करती है, जिसका इस्तेमाल छेड़छाड़ के लिए किया जा सकता है.
डीपफेक के खतरे से बचने के 5 अचूक उपाय
विशेषज्ञ इस तरह के डिजिटल खतरे से निपटने के लिए कुछ सुझाव देते हैं :
-
संदेह करें: किसी भी संदिग्ध फोटो या वीडियो को देखते ही सच न मानें.
-
डिटेक्शन टूल्स: रियलिटी डिफेंडर (Reality Defender) और सेंसिटी AI (Sensity AI) जैसे टूल्स का उपयोग करें.
-
गूगल ‘अबाउट दिस इमेज’: तस्वीर का असली स्रोत जानने के लिए गूगल के इस फीचर का इस्तेमाल करें.
-
वॉटरमार्किंग: हमेशा जांचें कि इमेज पर AI वॉटरमार्क तो नहीं है. भारत और इटली में अब यह अनिवार्य है.
-
प्राइवेसी सेटिंग्स: सोशल मीडिया पर फोटो शेयर करते समय अकाउंट को प्राइवेट रखें और अनजान लोगों को दोस्त न बनाएं.
कानून हुआ सख्त: जेल और भारी जुर्माना
इस खतरे को देखते हुए दुनिया भर की सरकारें सख्त हो रही हैं. इटली में डीपफेक से नुकसान पहुँचाने पर 5 साल तक की जेल का प्रावधान है वहीं, भारत ने फरवरी 2026 में अपने IT नियमों में बदलाव किया है, जिसके तहत गैरकानूनी AI कंटेंट को सिर्फ 3 घंटे के भीतर हटाना अनिवार्य कर दिया गया है.

