रश्मिका मंदाना के वायरल डीपफ़ेक वीडियो पर आईटी मंत्री ने चेताया

06:13 pm Nov 06, 2023 | सत्य ब्यूरो

डीपफ़ेक फिर से सुर्खियों में है। फिर से ग़लत वजहों से। मशहूर अभिनेत्री रश्मिका मंदाना का एक डीपफ़ेक वीडियो वायरल हुआ है। डीपफ़ेक का आसान मतलब है फ़ेक लेकिन इतना सॉफिस्टिकेटेड फेक कि इसको आसानी से नकली के रूप में पहचानना बेहद मुश्किल है। रश्मिका मंदाना के डीपफ़ेक वीडियो वायरल को लेकर अब आईटी मंत्री राजीव चंद्रशेखर ने सोशल मीडिया प्लेटफार्मों को बड़ी चेतावनी दी है।

केंद्रीय मंत्री राजीव चंद्रशेखर ने अभिनेत्री रश्मिका मंदाना के वायरल डीपफेक वीडियो को लेकर सोशल मीडिया प्लेटफार्मों को गलत सूचना से लड़ने के लिए उनके कानूनी दायित्वों की याद दिलाई। वीडियो में मूल रूप से ब्रिटिश-भारतीय इन्फ्लुएंसर ज़ारा पटेल को दिखाया गया था, लेकिन डीपफेक में उनके चेहरे की जगह अभिनेत्री रश्मिका का चेहरा लगा दिया गया। सोशल मीडिया एक्स पर केंद्रीय आईटी राज्य मंत्री ने कहा कि प्रधानमंत्री नरेंद्र मोदी के तहत केंद्र सरकार इंटरनेट का उपयोग करने वाले सभी नागरिकों की सुरक्षा और विश्वास सुनिश्चित करने के लिए प्रतिबद्ध है।

अप्रैल 2023 में अधिसूचित आईटी नियमों का हवाला देते हुए केंद्रीय मंत्री ने उन दिशानिर्देशों को बताया जिनका सोशल मीडिया प्लेटफार्मों को कानूनी दायित्व के रूप में पालन करना होगा। चन्द्रशेखर ने कहा कि सभी प्लेटफार्मों को सुनिश्चित करना चाहिए कि किसी भी यूज़र द्वारा कोई गलत सूचना पोस्ट न की जाए और जब सरकार को किसी भी यूज़र द्वारा रिपोर्ट की जाती है तो गलत सूचना को 36 घंटों में हटा दिया जाए।

उन्होंने आगे लिखा कि यदि सोशल मीडिया प्लेटफॉर्म नियमों का पालन करने में विफल रहते हैं तो नियम 7 लागू किया जाएगा और प्लेटफॉर्म को आईपीसी के प्रावधानों के तहत पीड़ित व्यक्ति द्वारा अदालत में घसीटा जा सकता है।

बता दें कि केंद्रीय मंत्री की यह प्रतिक्रिया तब आई है जब फिल्म 'पुष्पा' की अभिनेत्री रश्मिका मंदाना के वायरल वीडियो ने इंटरनेट पर तहलका मचा दिया है। ऑनलाइन डाले जाने के बाद से इसे 14 मिलियन से अधिक बार देखा जा चुका है। 'अलविदा' फिल्म में रश्मिका के सह-कलाकार अमिताभ बच्चन हैं और उन्होंने भी डीपफेक के मामले पर चिंता जताई। 'गुडबाय' में अमिताभ बच्चन की बेटी की भूमिका से बॉलीवुड में डेब्यू करने वाली रश्मिका अगली बार रणबीर कपूर के साथ 'एनिमल' में नजर आएँगी।

रश्मिका ने डीपफ़ेक वीडियो पर अपनी पीड़ा व्यक्त की है। उन्होंने कहा है कि इसे साझा करते हुए मुझे बहुत दुख हो रहा है और मुझे ऑनलाइन फैलाए जा रहे मेरे डीपफेक वीडियो के बारे में बात करनी पड़ रही है। उन्होंने कहा है कि ईमानदारी से कहूं तो ऐसा कुछ न केवल मेरे लिए, बल्कि हममें से हर एक के लिए बेहद डरावना है। 

मूल वीडियो 9 अक्टूबर को इंस्टाग्राम पर साझा किया गया था, जिसमें ब्रिटिश-भारतीय लड़की ज़ारा पटेल दिखी थीं। डीपफेक वीडियो में महिला को काले रंग की पोशाक पहने हुए और लिफ्ट में प्रवेश करते हुए दिखाया गया है। गौर से देखने पर पता चलता है कि लिफ्ट में घुसते ही महिला का चेहरा बदलकर रश्मिका जैसा हो जाता है। हालाँकि, यह रहस्य बना हुआ है कि नकली वीडियो किसने बनाया।

क्या है डीपफ़ेक?

डीपफ़ेक एक तरह से फ़ेक यानी नकली चीज के लिए इस्तेमाल होता है। लेकिन यह इतनी गहराई से यानी सॉफिस्टिकेटेड तरीक़े से नकली बनाया जाता है कि इसको पकड़ना बेहद कठिन होता है कि यह नकली बनाया गया है। इसका इस्तेमाल आम तौर पर तस्वीरों और वीडियो के लिए होता है। 

ऑरिजिनल या मौजूदा तस्वीर और वीडियो में एक व्यक्ति की जगह किसी दूसरे व्यक्ति के चेहरे, हावभाव या आवाज़ को लगा दिया जाए और इतनी समानता हो कि उनमें अंतर करना कठिन हो तो यह डीपफ़ेक है। 'डीपफ़ेक' को आसान भाषा में ऐसे समझें। मोबाइल की कई कैमरा ऐप्स में यह सुविधा होती है कि किसी तस्वीर पर चेहरा बदला जा सकता है। इनमें तस्वीरें असली जैसी दिखती हैं, लेकिन होती नकली हैं। यही डीपफ़ेक है। 

इसे और आसानी से समझना है तो दिल्ली विधानसभा चुनाव के दौरान तत्कालीन दिल्ली बीजेपी अध्यक्ष मनोज तिवारी का वह वीडियो याद कीजिए जिसमें उन्होंने एक ही वीडियो को कई भाषाओं में जारी किया था। दिल्ली विधानसभा चुनावों में प्रचार के लिए बीजेपी ने आर्टिफ़िशियल इंटेलिजेंस यानी एआई से बने 'डीपफ़ेक' वीडियो का सहारा लिया था। बीजेपी की तरफ़ से जारी वीडियो में मनोज तिवारी के वीडियो पर कई अलग-अलग भाषाएँ जोड़कर व्हाट्सऐप पर शेयर किया गया था और सभी वीडियो में वह ओरिजिनल ही लग रहे थे। 

जब 1 लाख महिलाएँ आई थीं निशाने पर

साल 2020 में डीपफ़ेक ने तब तहलका मचा दिया था जब एक साफ़्टवेयर से 1 लाख से ज़्यादा महिलाएँ निशाना बनाई गई थीं। ये वे महिलाएँ थीं जिन्होंने वाट्सऐप जैसी ऐप टेलीग्राम के बॉट पर तस्वीरें अपलोड की थीं। बॉट एक तरह की आर्टिफ़िशियल इंटेलिजेंस या रोबोट की तरह साफ़्टवेयर एप्लिकेशन है जिसे एक निश्चित काम के लिए प्रोग्राम किया जाता है। बॉट पर डाली गई इन्हीं तस्वीरों को किसी ने चुपके से कम्प्यूटर द्वारा फ़ेक आपत्तिजनक तसवीरें बना दीं। तब शोधकर्ताओं ने यह दावा किया था।

सेंसिटी की एक रिपोर्ट में यह दावा किया गया था। सेंसिटी कंपनी आर्टिफ़िशियल इंटेलिजेंस को लेकर शोध करती रही है और ऑनलाइन की जाने वाली इस तरह की गड़बड़ियों पर रिपोर्ट प्रकाशित करती रही है। इसकी रिपोर्ट में कहा गया है कि इन 'डीपफ़ेक' तस्वीरों को मैसेजिंग ऐप टेलीग्राम पर बॉट के एक इकोसिस्टम द्वारा बनाया गया था, जो नकली आपत्तिजनक तस्वीरें बना सकता है। सेंसिटी द्वारा जारी रिपोर्ट के अनुसार एक खुफिया फ़र्म डीपफ़ेक करने में माहिर है।

हालाँकि डीपफ़ेक पर ज़्यादातर कवरेज राजनीति और चुनावों पर केंद्रित है लेकिन कई विशेषज्ञ चिंता जताते हैं कि इस तकनीक के वास्तविक शिकार वे लोग हो सकते हैं जो सामाजिक रूप से कमज़ोर हैं।