+
फ़ेक न्यूज का ख़तरा बढ़ा, बीजेपी ने दिल्ली चुनाव में किया डीपफ़ेक तकनीक का इस्तेमाल!

फ़ेक न्यूज का ख़तरा बढ़ा, बीजेपी ने दिल्ली चुनाव में किया डीपफ़ेक तकनीक का इस्तेमाल!

डीपफ़ेक तकनीक के इस्तेमाल से आप किसी भी वीडियो में किसी के भी चेहरे पर किसी भी दूसरे शख़्स का चेहरा लगा सकते हैं। दुनिया भर में इसे लेकर चिंता जताई जा रही है। 

किसी भी वीडियो को सुनते समय उसमें कही गई बातों पर आप आज तक भरोसा कर लेते थे। मतलब यह कि किसी मुद्दे पर किसी नेता या फिर किसी आदमी ने कोई बात कही और आपने भरोसा कर लिया। लेकिन आगे से इतनी जल्दी भरोसा मत करियेगा। लेकिन क्यों क्योंकि हो सकता है कि आपने जिस नेता या किसी आदमी को कुछ कहते हुए सुना है, वह उसने कहा ही नहीं है। अब आप चौंक गए होंगे। अब एक नई तकनीक आ गई है, जिसका नाम है डीपफ़ेक और इसके इस्तेमाल से ऐसा किया जा सकता है। और आप हैरान रह जाएंगे कि जिस आदमी को आपने कुछ और कहते सुना था, बिलकुल उसी जगह, कैमरे के उसी फ़्रेम में बैठा व्यक्ति, वैसे ही कपड़े पहने हुआ व्यक्ति, समझ लीजिए कि बाल भर भी फर्क नहीं होगा लेकिन वह कुछ और कह रहा होगा। यह बात चौंकाने वाली होने के साथ ही बेहद ख़तरनाक भी है। ख़तरनाक कैसे है, उस पर हम बाद में बात करेंगे लेकिन पहले हम बात करते हैं कि यह बात कहां से उठी है। 

किसी व्यक्ति की आवाज़ के साथ कैसे तोड़-मरोड़ की जा सकती है, इस पर शोध करने वाली कंपनी वाइस ने ख़बर दी है कि दिल्ली विधानसभा चुनाव के प्रचार में बीजेपी ने डीपफ़ेक तकनीक का इस्तेमाल किया था। ख़बरों के मुताबिक़, दिल्ली बीजेपी ने औपचारिक रूप से डीपफ़ेक तकनीक से वीडियो बनाने के लिये एक कम्युनिकेशन कंपनी की सेवाएं ली थीं। हालांकि पार्टी की ओर से डीपफ़ेक तकनीक का इस्तेमाल करने की बात से इनकार किया गया है। इन वीडियो में दिल्ली बीजेपी के अध्यक्ष मनोज तिवारी को हरियाणवी और अंग्रेजी बोलते हुए दिखाया गया था। सुनिए अंग्रेजी वाला वीडियो।  

अब सुनिए हरियाणवी वाला वीडियो। 

अब आपको जानकर हैरानी होगी कि मनोज तिवारी ने तो हरियाणवी और अंग्रेजी बोली ही नहीं। बल्कि उन्होंने हिंदी में एक वीडियो बनाया था। हिंदी वाला वीडियो सुनिए। 

हिंदी वाले वीडियो में मनोज तिवारी इन दो वीडियो से हटकर बिलकुल अलग मुद्दे पर बात कर रहे हैं। हिंदी के वीडियो में मनोज तिवारी नागरिकता क़ानून पर बात कर रहे हैं जबकि हरियाणवी और अंग्रेजी भाषा में बने वीडियो में वह केजरीवाल सरकार के वादों को लेकर बात करते दिखाई दे रहे हैं। लेकिन अगर आप इन सभी वीडियोज को सुनेंगे तो एक बार के लिये सिर पकड़ लेंगे कि यह चक्कर क्या है। 

आज तक भारत में सबसे ज़्यादा ख़तरा फ़ेक न्यूज़ से था। फ़ेक न्यूज़ मतलब झूठी ख़बरें जिनसे किसी के ख़िलाफ़ भी सोशल मीडिया पर कुछ भी ग़लत बात वायरल करा देना। लेकिन डीपफ़ेक तो फ़ेक न्यूज़ से कहीं ज़्यादा ख़तरनाक है। और कोई वीडियो डीपफ़ेक है, इसका पता चलने तक न जाने वह वीडियो कितनी जगह दंगे, फसाद, घरों-समाजों में टूट करवा चुका होगा। 

बीजेपी पर डीपफ़ेक तकनीक का इस्तेमाल करने के आरोप के बाद यह चिंता सामने आ रही है कि भारत में राजनीति में इस तकनीक के इस्तेमाल से किसी के ख़िलाफ़ कुछ भी ग़लत प्रचार आसानी से किया जा सकता है।

डीपफ़ेक में दो शब्द होते हैं। 'डीप लर्निंग' और 'फेक'। डीप लर्निंग को आर्टिफ़िशियल इंटेलिजेंस (एआई) का हिस्सा माना जाता है। डीपफ़ेक के जरिये आप किसी भी वीडियो में किसी का भी चेहरा किसी से भी बदल सकते हैं और यह काम इस तरह किया जाता है कि इसे पता करना बेहद मुश्किल होता है। 

आर्टिफिशियल इंटेलिजेंस के जरिये बनाये गये डीपफ़ेक वीडियो में असली-नकली का पता लगा पाना बेहद मुश्किल है। अमेरिका के पूर्व राष्ट्रपति बराक ओबामा का भी एक ऐसा ही वीडियो सामने आया था, जिसमें उन्हें डीपफ़ेक तकनीक का शिकार बनाया गया था। फ़ेसबुक के प्रमुख मार्क जुकरबर्ग भी इसका शिकार बन चुके हैं। 

हिंदुस्तान टाइम्स के मुताबिक़, इस तरह के वीडियो की जांच करने वाली कंपनी डीपट्रेस के अधिकारी हैनरी अजदेर ने कहा कि मनोज तिवारी का वीडियो पूरी तरह डीपफ़ेक तकनीक से बनाया गया है। अजदेर ने कहा कि इस तरह के मामले लगातार बढ़ते जा रहे हैं और बिना तकनीकी मदद के इस तरह के फ़ेक कटेंट का पता कर पाना लगभग असंभव है। 

इंटरनेट पर डीपफ़ेक सॉफ़्टवेयर आसानी से उपलब्ध हैं। आप इससे किसी को भी अपना शिकार बना सकते हैं। बस आपके पास उसकी बहुत सारी फ़ोटो होनी चाहिए। इसीलिये, इसके शिकार अधिकतर सेलेब्रिटी होते हैं। दुनिया भर में लोगों को जागरूक करने के लिये वर्ल्ड इकनॉमिक फ़ोरम, दावोस में एक कॉर्नर लगाकर इस बारे में बताया गया था। 

दुनिया भर में जताई जा रही चिंता 

चीन ने पिछले साल नवंबर में फ़ेक न्यूज और भ्रामक वीडियो को वायरल होने से रोकने के लिये नई नीति बनाई है। चीन ने कहा था कि नई नीति के मुताबिक़, आर्टिफिशियल इंटेलिजेंस (एआई) का इस्तेमाल करके बनाये गयी फ़ेक न्यूज या भ्रामक वीडियो पर रोक लगाने के लिये ही यह नीति अमल में लाई गई है। नीति के मुताबिक़, अगर एआई का इस्तेमाल करके बनाये गये वीडियो या अन्य सामग्री को पब्लिश करने के लिये आपको पहले ही जानकारी देनी होगी। वरना इसे डीपफ़ेक माना जायेगा। अगर कोई व्यक्ति यह जानकारी नहीं देता है तो यह क़ानूनन अपराध होगा। इन नियमों को 1 जनवरी, 2020 से लागू कर दिया गया है। चीन की साइबरस्पेस अथॉरिटी ने कहा था कि कि 'डीपफेक' तकनीक सामाजिक और राजनीतिक व्यवस्था के लिये ख़तरा है और यह राष्ट्रीय सुरक्षा पर भी नकारात्मक प्रभाव डालती है। अमेरिकी में 2016 के राष्ट्रपति के चुनाव में ऑनलाइन फेक न्यूज का जमकर इस्तेमाल हुआ था। अब 2020 के राष्ट्रपति चुनाव में डीपफ़ेक के इस्तेमाल को लेकर चिंताएं चिंताएं बढ़ गई हैं। 

कन्हैया कुमार प्रकरण 

फ़ेक न्यूज के इस्तेमाल का एक मामला जो देश भर में चर्चित है, वह है कन्हैया प्रकरण। 2016 में जेएनयू में लगे देशद्रोही नारों को लेकर जेएनयू छात्रसंघ के पूर्व अध्यक्ष कन्हैया कुमार और उनके साथियों पर यह आरोप लगा कि उन्होंने देशद्रोही नारे लगाये। जबकि कन्हैया ने इससे पूरी तरह इनकार किया है। कई न्यूज़ चैनलों ने इस बात का दावा किया कि ये नारे कन्हैया ने ही लगाये हैं जबकि कन्हैया का कहना है कि उनकी आवाज़ के साथ छेड़छाड़ की गई है। हमने हाल ही में देखा कि शाहीन बाग़ के आंदोलन के दौरान एक वीडियो बीजेपी के नेताओं की ओर से शेयर किया गया जिसमें उन्होंने दावा किया कि आंदोलन के दौरान जिन्ना वाली आज़ादी के नारे लगे थे जबकि आंदोलनकारियों ने इस बात को पूरी तरह झूठ बताया। बस समझ लीजिए कि डीपफ़ेक इससे भी कहीं ज़्यादा ख़तरनाक है क्योंकि यह वीडियो में भी एआई तकनीक के सहारे आसानी से छेड़छाड़ कर सकता है। 

सत्य हिंदी ऐप डाउनलोड करें