+
डीपफ़ेक: 1 लाख महिलाओं की आपत्तिजनक तसवीरें बना दीं!

डीपफ़ेक: 1 लाख महिलाओं की आपत्तिजनक तसवीरें बना दीं!

यदि आप सोशल मीडिया पर अपनी तसवीर पोस्ट करते हैं तो सचेत हो जाइए। बिना आपकी जानकारी के आपकी अच्छी-ख़ासी तसवीरों की साफ़्टवेयर से नकली आपत्तिजनक तसवीर बनाई जा सकती है। ऐसे ही एक साफ़्टवेयर से 1 लाख से ज़्यादा महिलाएँ निशाना बनाई गई हैं।

यदि आप सोशल मीडिया पर अपनी तसवीर पोस्ट करते हैं तो सचेत हो जाइए। बिना आपकी जानकारी के आपकी अच्छी-ख़ासी तसवीरों की साफ़्टवेयर से नकली आपत्तिजनक तसवीर बनाई जा सकती है। ऐसे ही एक साफ़्टवेयर से 1 लाख से ज़्यादा महिलाएँ निशाना बनाई गई हैं। ये वे महिलाएँ हैं जिन्होंने वाट्सऐप जैसी ऐप टेलीग्राम के बॉट पर तसवीरें अपलोड की थीं। बॉट एक तरह की आर्टिफ़िशियल इंटेलिजेंस या रोबोट की तरह साफ़्टवेयर एप्लिकेशन है जिसे एक निश्चित काम के लिए प्रोग्राम किया जाता है। बॉट पर डाली गई इन्हीं तसवीरों को किसी ने चुपके से कम्प्यूटर द्वारा फ़ेक आपत्तिजनक तसवीरें बना दीं। मंगलवार को शोधकर्ताओं ने यह दावा किया है। फ़ेक यानी नकली आपत्तिजनक तसवीरों को 'डीपफ़ेक' तसवीरें कहा जा रहा है। 

सेंसिटी की एक रिपोर्ट में यह दावा किया गया है। सेंसिटी कंपनी आर्टिफ़िशियल इंटेलिजेंस को लेकर शोध करती रही है और ऑनलाइन की जाने वाली इस तरह की गड़बड़ियों पर रिपोर्ट प्रकाशित करती रही है। इसकी रिपोर्ट में कहा गया है कि इन 'डीपफ़ेक' तसवीरों को मैसेजिंग ऐप टेलीग्राम पर बॉट के एक इकोसिस्टम द्वारा बनाया गया था, जो नकली आपत्तिजनक तसवीरें बना सकता है। सेंसिटी द्वारा जारी रिपोर्ट के अनुसार एक खुफिया फ़र्म डीपफ़ेक करने में माहिर है।

'डीपफ़ेक' को आसान भाषा में ऐसे समझें। मोबाइल की कई कैमरा ऐप्स में यह सुविधा होती है कि किसी तसवीर पर चेहरा बदला जा सकता है। इनमें तसवीर असली जैसी दिखती हैं, लेकिन होती नकली हैं। यही डीपफ़ेक है। 

इसे और आसानी से समझना है तो दिल्ली विधानसभा चुनाव के दौरान तत्कालीन दिल्ली बीजेपी अध्यक्ष मनोज तिवारी का वह वीडियो याद कीजिए जिसमें उन्होंने एक ही वीडियो को कई भाषाओं में जारी किया था। दिल्ली विधानसभा चुनावों में प्रचार के लिए बीजेपी आर्टिफ़िशियल इंटेलिजेंस यानी एआई से बने 'डीपफ़ेक' वीडियो का सहारा लिया था। बीजेपी की तरफ़ से जारी वीडियो में मनोज तिवारी के वीडियो पर दो अलग-अलग भाषाएँ जोड़कर व्हाट्सऐप पर शेयर किया गया। एक वीडियो में तिवारी अंग्रेजी भाषा और दूसरे में हरियाणवी लहजे में बात करते हुए नज़र आ रहे थे। 

डीपफ़ेक वीडियो भी ऐसे वीडियो होते हैं जो एआई का इस्तेमाल कर इनमें एक वीडियो का चेहरा उठाकर दूसरे वीडियो में लगा दिया जाता है, लेकिन दिखने में ये वीडियो बिल्कुल असली जैसे होते हैं।

इसमें जो सिस्टम इस्तेमाल होता है वह स्टडी द्वारा किसी व्यक्ति के व्यवहार और बोलने के अंदाज़ की नकल कर लेता है। इनको आसानी से असली और नकली में फर्क नहीं किया जा सकता है। 

'डीपफ़ेक' का सबसे बड़ा ख़तरा यह है कि लोग इसके द्वारा तैयार किए गए कंटेंट को सच मान सकते हैं, जबकि असल में वह नकली होता है। यही अब तसवीरों को नकली आपत्तिजनक तसवीरों के बनाने में बड़ी दिक्कत है। 

किन्हें बनाया गया है निशाना

सेंसिटी की रिपोर्ट में पाया गया है कि इन बॉट्स के उपयोग करने वाले मुख्य रूप से सोशल मीडिया से ली गई तसवीरों से उन महिलाओं के नकली आपत्तिजनक तसवीरें बना रहे थे जिन्हें वे जानते थे। जिन्होंने तब अन्य टेलीग्राम चैनलों पर उन तसवीरों को साझा किया। शोधकर्ताओं द्वारा जाँच किए गए टेलीग्राम चैनल में दुनिया भर की 101,080 सदस्य निशाना बनाई गईं। इनमें से 70 फ़ीसदी रूस और अन्य पूर्वी यूरोपीय देशों से थीं। निशाना बनाई गई कुछ लड़कियाँ कम उम्र की थीं। उस रिपोर्ट के अनुसार उन बॉट्स को रूस की सोशल मीडिया वेबसाइट वीके पर बड़ी संख्या में विज्ञापन मिले। हालाँकि इस संदर्भ में जब फ़ोर्ब्स मैगज़ीन ने बात की तो रूसी सोशल प्लेटफ़ॉर्म की प्रेस टीम ने बताया कि इन समुदायों या लिंक को वीके के विज्ञापन टूल का उपयोग करके प्रचारित नहीं किया गया था। उन्होंने कहा, 'वीके ऐसी सामग्री या लिंक को बर्दाश्त नहीं करता... और उन्हें वितरित करने वाले समुदायों को ब्लॉक करता है।'

हालाँकि डीपफ़ेक पर ज़्यादातर कवरेज राजनीति और चुनावों पर केंद्रित है लेकिन कई विशेषज्ञ चिंता जताते हैं कि इस तकनीक के वास्तविक शिकार वे लोग हो सकते हैं जो सामाजिक रूप से कमज़ोर हैं। मानव अधिकार वीडियो संगठन विटनेस के कार्यक्रम निदेशक सैम ग्रेगरी ने CNET को बताया, 'डीपफ़ेक चुनावों को लेकर ध्यान केंद्रित है' लेकिन नियमित लोगों को होने वाले नुक़सान की अनदेखी करता है, जहाँ एक ख़राब गुणवत्ता वाला डीपफ़ेक भी काफ़ी ख़तरनाक है।

सत्य हिंदी ऐप डाउनलोड करें