नई दिल्ली। इंटरनेट पर तमाम सेलिब्रिटीज़ का डीपफेक पॉर्न मौजूद है लेकिन अब समय आ गया है कि आम आदमी भी इसको लेकर सेफ नहीं है. एक्सपर्ट्स का कहना है कि हम लोग ऐसी स्थिति में पहुंच गए हैं जब कभी भी किसी का फेक पॉर्न वीडियो बन सकता है. वीडियो वेरीफिकेशन कंपनी के सीईओ शमीर अलीभाई ने कहा डेलीस्टरा को बताया कि इसकी वजह से अब किसी का भी डीपफेक पॉर्न बनाना काफी आसान हो जाएगा. साथ ही इसकी वजह से रिवेंज पॉर्न की घटनाएं काफी बढ़ सकती हैं.
उन्होंने कहा कि यह उतना ही आसान होगा जितना कि इन्स्टाग्राम पर फिल्टर लगाना. महिलाओं को इससे काफी खतरा हो सकता है. किसी के फेक पॉर्न फोटो बनाकर उसे बदनाम करना इस टेक्नॉलजी की मदद से आसान होगा, जिसके परिणाम बुरे हो सकते हैं. अलीभाई ने कहा, ‘इस डीपफेक टेक्नॉलजी को एक हथियार बना देता है.’ उन्होंने कहा कि यह खतरा दो स्तर पर है, सबसे पहले तो रिश्ते टूटेंगे और दूसरे स्तर पर लोगों को ब्लैकमेल किया जा सकता है.
पहले भी आ चुके हैं कई सेलेब्स के फेक वीडियो-
अलीभाई ने कहा, ‘अगर फोटो वेरिफाइ करने और फेक पॉर्न वीडियो से जुड़े सॉल्यूशंस उपलब्ध नहीं हुए तो काफी दिक्कत का सामना करना पड़ सकता है. किसी का किसी पर भी भरोसा करना मुश्किल हो जाएगा हर चीज को शक की नजर से देखा जाएगा.’ बता दें कि हॉलीवुड ऐक्ट्रेस स्कारलेट जॉनसन समेत कई सिलेब्स के डीपफेक पॉर्न वीडियोज पहले ही इंटरनेट पर सामने आ चुके हैं. कई डीपफेक वीडियो ऐसे भी हैं, जो पॉर्न नहीं हैं लेकिन उनमें डोनाल्ड ट्रंप, बराक ओबामा और मार्क ज़करबर्ग जैसे चेहरे ऐसी बातें बोलते दिख रहे हैं, जो उन्होंने कभी कही ही नहीं.
डीपफेक कैसे करता है काम-
डीपफेक्स डाउनलोडेबल ऐप्स होते हैं जो आर्टिफिशल इंटेलिजेंस और मशीन लर्निंग की मदद से आसानी से पॉर्न वीडियोज में चेहरे बदल देते हैं. इसके लिए यूजर को पहले ऐसा पॉर्न वीडियो ट्रैक करना होता है, जिसमें दिख रहा चेहरा ऐक्ट्रेस या टारगेट से मिलता-जुलता हो. इसके बाद टारगेट की ढेरों तस्वीरों को फीड कर दिया जाता है और मशीन लर्निंग एल्गोरिथ्म चेहरे को फ्रेम-बाई-फ्रेम विडियो में सेट कर देता है. इस तरह असली सा दिखने वाला फेक पॉर्न विडियो बन जाता है. (सिर्फ 5 दिन के लिए भारी डिस्काउंट पर मिल रहे हैं Xiaomi फोन)
Leave a Reply