फ़ेसबुक पर नया खुलासा: हेट स्पीच, ध्रुवीकरण वाले कंटेंट से फ़ेसबुक को कोई परेशानी नहीं! 

10:48 am Nov 10, 2021 | सत्य ब्यूरो

कई तरह के गंभीर आरोपों का सामना कर रहे सोशल मीडिया प्लेटफ़ॉर्म फेसबुक की ओर एक बार फिर से उंगलियां उठी हैं। भारत में फ़ेसबुक के कामकाज को लेकर इसके ही स्टाफ़ के लोगों ने 2018 से 2020 के बीच कई बार सवाल उठाए लेकिन इस प्लेटफ़ॉर्म ने कोई ठोस कार्रवाई नहीं की। 

‘द इंडियन एक्सप्रेस’ में छपी एक रिपोर्ट के मुताबिक़, इस बारे में फेसबुक के तत्कालीन उपाध्यक्ष क्रिस कॉक्स ने 2019 में कुछ बैठकें भी की थीं लेकिन उन्हें हेट स्पीच से लेकर समुदाय विशेष के ख़िलाफ़ चल रहे आपत्तिजनक कंटेंट को लेकर कोई समस्या नहीं दिखी। 

बैठकों के दौरान फ़ेसबुक के कर्मचारियों और इसके बड़े अफ़सरों के बीच इस बारे में जो बातचीत हुई, उसके तीन मेमो भी सामने आए। इनमें फ़ेसबुक के कर्मचारियों ने यही सवाल उठाया था कि कंपनी के पास हेट स्पीच को पकड़ने के लिए बेसिक सेट अप तक नहीं है। कर्मचारियों ने फ़ेसबुक से यह भी पूछा था कि वह अल्पसंख्यक समुदाय का भरोसा कैसे हासिल करेगा। 

लोकसभा चुनाव 2019 से पहले भी हेट स्पीच और ख़राब कंटेंट को लेकर फ़ेसबुक के सामने रिपोर्ट रखी गई थी। दो रिपोर्ट्स जनवरी-फरवरी, 2019 में जबकि तीसरी रिपोर्ट अगस्त 2020 में कंपनी के सामने रखी गई थी।

हेट स्पीच पकड़ने में फ़ेल

इन रिपोर्ट्स में इस बात को स्वीकार किया गया था कि फ़ेसबुक का आर्टिफ़िशल इंटेलीजेंस टूल स्थानीय भाषाओं की पहचान नहीं कर सकता और इस वजह से वह ग़लत कंटेंट या हेट स्पीच की पहचान नहीं कर सका। ‘द इंडियन एक्सप्रेस’ की ओर से इस बारे में पूछे जाने पर फ़ेसबुक ने कोई जवाब नहीं दिया। 

फ़ेसबुक की पूर्व कर्मचारी की वकील और व्हिसिल ब्लोअर फ्रांसिस होगेन ने इस बात को उजागर किया है। उन्होंने इसे अमेरिकी कांग्रेस को भी दिया है। 

पहली रिपोर्ट में कहा गया था कि पश्चिम बंगाल में फ़ेसबुक पर पोस्ट किए गए कंटेंट में से 40 फ़ीसदी फर्जी था। दूसरी रिपोर्ट एक टेस्ट अकाउंट के नतीजों पर आधारित थी। 

जबकि तीसरी रिपोर्ट में कहा गया था कि तीन हफ़्ते के भीतर ही किसी टेस्ट यूजर की न्यूज़ फीड राष्ट्रवादी कंटेंट, ग़लत सूचनाओं और हिंसा का ध्रुवीकरण करने वाली पोस्ट बन गई। टेस्ट अकाउंट एक डमी यूजर था, जिसका फ़ेसबुक पर कोई दोस्त नहीं था और इसे फ़ेसबुक के ही एक कर्मचारी ने यह जानने के लिए बनाया था कि इसका क्या असर होता है। 

बड़ी बात यह है कि इस टेस्ट यूजर ने केवल फ़ेसबुक के एल्गोरिथम के द्वारा दिखाए गए कंटेंट को ही फ़ॉलो किया था। कर्मचारी ने अपनी रिपोर्ट में कहा था कि कंटेंट की क्वालिटी ठीक नहीं थी और एल्गोरिथम यूजर को अधिकतर सॉफ्टकोर पोर्न देखने का सुझाव देता था। 

लेकिन 14 फ़रवरी के पुलवामा हमले के बाद एल्गोरिथम ने ऐसे फ़ेसबुक पेजों और ग्रुप्स को दिखाना शुरू कर दिया जो अधिकतर राजनीति और सेना से जुड़ी चीजों पर आधारित थे।

हेट स्पीच रोकने का दावा

फ़ेसबक ने ‘द इंडियन एक्सप्रेस’ को बताया था कि उसने कई भाषाओं (हिंदी और बंगाली) में हेट स्पीच की जांच की थी और अब यह काफ़ी कम हो गयी है लेकिन कमजोर तबकों जैसे मुसलिम समुदाय आदि के ख़िलाफ़ यह दुनिया भर में बढ़ रही है और कंपनी इस बारे में काम कर रही है। 

पहले भी लगे हैं आरोप

यह निश्चित रूप से इस सोशल मीडिया प्लेटफ़ॉर्म के कामकाज पर ढेरों सवाल खड़े करता है। फ़ेसबुक पर पहले भी आरोप लगे हैं कि उसने बीजेपी नेताओं की हेट स्पीच को अपने प्लेटफ़ॉर्म से नहीं हटाया और बीजेपी के कहने पर कुछ लोगों के फ़ेसबुक पेज को हटा दिया।

‘नेटवर्क को नहीं हटाया’

कुछ ही दिन पहले फ़ेसबुक की पूर्व कर्मचारी सोफ़ी झांग ने बड़ा खुलासा किया था। झांग ने एनडीटीवी के साथ बातचीत में कहा था कि फ़ेसबुक ने बीजेपी सांसद से जुड़े फ़ेक अकाउंट्स वाले नेटवर्क को नहीं हटाया। जबकि उसने चुनाव को प्रभावित करने वाले कांग्रेस और आम आदमी पार्टी के फ़ेक अकाउंट्स के नेटवर्क के ख़िलाफ़ कार्रवाई की थी। ये नेटवर्क दिल्ली विधानसभा चुनाव 2020 के दौरान फ़ेसबुक के सामने आए थे।