फ़ेक न्यूज का ख़तरा बढ़ा, बीजेपी ने दिल्ली चुनाव में किया डीपफ़ेक तकनीक का इस्तेमाल!
किसी भी वीडियो को सुनते समय उसमें कही गई बातों पर आप आज तक भरोसा कर लेते थे। मतलब यह कि किसी मुद्दे पर किसी नेता या फिर किसी आदमी ने कोई बात कही और आपने भरोसा कर लिया। लेकिन आगे से इतनी जल्दी भरोसा मत करियेगा। लेकिन क्यों क्योंकि हो सकता है कि आपने जिस नेता या किसी आदमी को कुछ कहते हुए सुना है, वह उसने कहा ही नहीं है। अब आप चौंक गए होंगे। अब एक नई तकनीक आ गई है, जिसका नाम है डीपफ़ेक और इसके इस्तेमाल से ऐसा किया जा सकता है। और आप हैरान रह जाएंगे कि जिस आदमी को आपने कुछ और कहते सुना था, बिलकुल उसी जगह, कैमरे के उसी फ़्रेम में बैठा व्यक्ति, वैसे ही कपड़े पहने हुआ व्यक्ति, समझ लीजिए कि बाल भर भी फर्क नहीं होगा लेकिन वह कुछ और कह रहा होगा। यह बात चौंकाने वाली होने के साथ ही बेहद ख़तरनाक भी है। ख़तरनाक कैसे है, उस पर हम बाद में बात करेंगे लेकिन पहले हम बात करते हैं कि यह बात कहां से उठी है।
किसी व्यक्ति की आवाज़ के साथ कैसे तोड़-मरोड़ की जा सकती है, इस पर शोध करने वाली कंपनी वाइस ने ख़बर दी है कि दिल्ली विधानसभा चुनाव के प्रचार में बीजेपी ने डीपफ़ेक तकनीक का इस्तेमाल किया था। ख़बरों के मुताबिक़, दिल्ली बीजेपी ने औपचारिक रूप से डीपफ़ेक तकनीक से वीडियो बनाने के लिये एक कम्युनिकेशन कंपनी की सेवाएं ली थीं। हालांकि पार्टी की ओर से डीपफ़ेक तकनीक का इस्तेमाल करने की बात से इनकार किया गया है। इन वीडियो में दिल्ली बीजेपी के अध्यक्ष मनोज तिवारी को हरियाणवी और अंग्रेजी बोलते हुए दिखाया गया था। सुनिए अंग्रेजी वाला वीडियो।
अब सुनिए हरियाणवी वाला वीडियो।
अब आपको जानकर हैरानी होगी कि मनोज तिवारी ने तो हरियाणवी और अंग्रेजी बोली ही नहीं। बल्कि उन्होंने हिंदी में एक वीडियो बनाया था। हिंदी वाला वीडियो सुनिए।
हिंदी वाले वीडियो में मनोज तिवारी इन दो वीडियो से हटकर बिलकुल अलग मुद्दे पर बात कर रहे हैं। हिंदी के वीडियो में मनोज तिवारी नागरिकता क़ानून पर बात कर रहे हैं जबकि हरियाणवी और अंग्रेजी भाषा में बने वीडियो में वह केजरीवाल सरकार के वादों को लेकर बात करते दिखाई दे रहे हैं। लेकिन अगर आप इन सभी वीडियोज को सुनेंगे तो एक बार के लिये सिर पकड़ लेंगे कि यह चक्कर क्या है।
आज तक भारत में सबसे ज़्यादा ख़तरा फ़ेक न्यूज़ से था। फ़ेक न्यूज़ मतलब झूठी ख़बरें जिनसे किसी के ख़िलाफ़ भी सोशल मीडिया पर कुछ भी ग़लत बात वायरल करा देना। लेकिन डीपफ़ेक तो फ़ेक न्यूज़ से कहीं ज़्यादा ख़तरनाक है। और कोई वीडियो डीपफ़ेक है, इसका पता चलने तक न जाने वह वीडियो कितनी जगह दंगे, फसाद, घरों-समाजों में टूट करवा चुका होगा।
बीजेपी पर डीपफ़ेक तकनीक का इस्तेमाल करने के आरोप के बाद यह चिंता सामने आ रही है कि भारत में राजनीति में इस तकनीक के इस्तेमाल से किसी के ख़िलाफ़ कुछ भी ग़लत प्रचार आसानी से किया जा सकता है।
डीपफ़ेक में दो शब्द होते हैं। 'डीप लर्निंग' और 'फेक'। डीप लर्निंग को आर्टिफ़िशियल इंटेलिजेंस (एआई) का हिस्सा माना जाता है। डीपफ़ेक के जरिये आप किसी भी वीडियो में किसी का भी चेहरा किसी से भी बदल सकते हैं और यह काम इस तरह किया जाता है कि इसे पता करना बेहद मुश्किल होता है।
आर्टिफिशियल इंटेलिजेंस के जरिये बनाये गये डीपफ़ेक वीडियो में असली-नकली का पता लगा पाना बेहद मुश्किल है। अमेरिका के पूर्व राष्ट्रपति बराक ओबामा का भी एक ऐसा ही वीडियो सामने आया था, जिसमें उन्हें डीपफ़ेक तकनीक का शिकार बनाया गया था। फ़ेसबुक के प्रमुख मार्क जुकरबर्ग भी इसका शिकार बन चुके हैं।
हिंदुस्तान टाइम्स के मुताबिक़, इस तरह के वीडियो की जांच करने वाली कंपनी डीपट्रेस के अधिकारी हैनरी अजदेर ने कहा कि मनोज तिवारी का वीडियो पूरी तरह डीपफ़ेक तकनीक से बनाया गया है। अजदेर ने कहा कि इस तरह के मामले लगातार बढ़ते जा रहे हैं और बिना तकनीकी मदद के इस तरह के फ़ेक कटेंट का पता कर पाना लगभग असंभव है।
इंटरनेट पर डीपफ़ेक सॉफ़्टवेयर आसानी से उपलब्ध हैं। आप इससे किसी को भी अपना शिकार बना सकते हैं। बस आपके पास उसकी बहुत सारी फ़ोटो होनी चाहिए। इसीलिये, इसके शिकार अधिकतर सेलेब्रिटी होते हैं। दुनिया भर में लोगों को जागरूक करने के लिये वर्ल्ड इकनॉमिक फ़ोरम, दावोस में एक कॉर्नर लगाकर इस बारे में बताया गया था।
दुनिया भर में जताई जा रही चिंता
चीन ने पिछले साल नवंबर में फ़ेक न्यूज और भ्रामक वीडियो को वायरल होने से रोकने के लिये नई नीति बनाई है। चीन ने कहा था कि नई नीति के मुताबिक़, आर्टिफिशियल इंटेलिजेंस (एआई) का इस्तेमाल करके बनाये गयी फ़ेक न्यूज या भ्रामक वीडियो पर रोक लगाने के लिये ही यह नीति अमल में लाई गई है। नीति के मुताबिक़, अगर एआई का इस्तेमाल करके बनाये गये वीडियो या अन्य सामग्री को पब्लिश करने के लिये आपको पहले ही जानकारी देनी होगी। वरना इसे डीपफ़ेक माना जायेगा। अगर कोई व्यक्ति यह जानकारी नहीं देता है तो यह क़ानूनन अपराध होगा। इन नियमों को 1 जनवरी, 2020 से लागू कर दिया गया है। चीन की साइबरस्पेस अथॉरिटी ने कहा था कि कि 'डीपफेक' तकनीक सामाजिक और राजनीतिक व्यवस्था के लिये ख़तरा है और यह राष्ट्रीय सुरक्षा पर भी नकारात्मक प्रभाव डालती है। अमेरिकी में 2016 के राष्ट्रपति के चुनाव में ऑनलाइन फेक न्यूज का जमकर इस्तेमाल हुआ था। अब 2020 के राष्ट्रपति चुनाव में डीपफ़ेक के इस्तेमाल को लेकर चिंताएं चिंताएं बढ़ गई हैं।
कन्हैया कुमार प्रकरण
फ़ेक न्यूज के इस्तेमाल का एक मामला जो देश भर में चर्चित है, वह है कन्हैया प्रकरण। 2016 में जेएनयू में लगे देशद्रोही नारों को लेकर जेएनयू छात्रसंघ के पूर्व अध्यक्ष कन्हैया कुमार और उनके साथियों पर यह आरोप लगा कि उन्होंने देशद्रोही नारे लगाये। जबकि कन्हैया ने इससे पूरी तरह इनकार किया है। कई न्यूज़ चैनलों ने इस बात का दावा किया कि ये नारे कन्हैया ने ही लगाये हैं जबकि कन्हैया का कहना है कि उनकी आवाज़ के साथ छेड़छाड़ की गई है। हमने हाल ही में देखा कि शाहीन बाग़ के आंदोलन के दौरान एक वीडियो बीजेपी के नेताओं की ओर से शेयर किया गया जिसमें उन्होंने दावा किया कि आंदोलन के दौरान जिन्ना वाली आज़ादी के नारे लगे थे जबकि आंदोलनकारियों ने इस बात को पूरी तरह झूठ बताया। बस समझ लीजिए कि डीपफ़ेक इससे भी कहीं ज़्यादा ख़तरनाक है क्योंकि यह वीडियो में भी एआई तकनीक के सहारे आसानी से छेड़छाड़ कर सकता है।