+
फ़ेसबुक ने ‘नफ़रती’ 40% सामग्री को नज़रअंदाज़ किया: रिपोर्ट

फ़ेसबुक ने ‘नफ़रती’ 40% सामग्री को नज़रअंदाज़ किया: रिपोर्ट

फ़ेसबुक पर क्यों आरोप लग रहा है कि नफ़रत और हिंसा वाली सामग्री पर कार्रवाई नहीं की? जानिए, एक के बाद एक रिपोर्टें फ़ेसबुक के आंतरिक सिस्टम को कैसे उजागर कर रही हैं।

फ़ेसबुक क्या जानबूझकर नफ़रत वाली सामग्री को बढ़ावा देता रहा है? ताज़ा रिपोर्ट में कुछ ऐसे ही संकेत मिलते हैं। एक रिपोर्ट के अनुसार आपत्तिजनक सामग्री के पैमाने पर बॉर्डर लाइन की मानी जानी वाली 40 फ़ीसदी सामग्री को फ़ेसबुक ने नज़रअंदाज़ कर दिया, जबकि वे अश्लीलता, हिंसा और नफ़रत फैलाने वाली थीं। फ़ेसबुक के ही आंतरिक दस्तावेज़ों में कहा गया है कि ऐसी सामग्री 'प्रोब्लेमैटिक' यानी समस्या वाली थीं। इसमें भी ख़ास बात यह है कि ऐसी सामग्री फ़ेसबुक के दिशा-निर्देशों को पूरी तरह से उल्लंघन करने वाली सामग्री से 10 गुना ज़्यादा देखी गई। तो सवाल है कि क्या ज़्यादा व्यूअरशिप और ज़्यादा इंगेजमेंट मिलने की वजह से फे़सबुक ने ऐसी बॉर्डर लाइन की सामग्री को बढ़ने दिया या बढ़ावा दिया?

पिछले कुछ महीनों से फ़ेसबुक के बारे में जो रिपोर्टें आ रही हैं वे नफ़रत वाली सामग्री को लेकर कंपनी को कटघरे में खड़ा करती हैं। ये रिपोर्टें फ़ेसबुक के ही आंतरिक दस्तावेजों से सामने आई हैं। ह्विसल ब्लोअर बन चुके फ़ेसबुक के ही पूर्व कर्मचारियों ने कई ऐसी रिपोर्टों को जारी किया है। 

हाल ही में एक रिपोर्ट में कहा गया था कि जब फ़ेसबुक पर ऐसी नफ़रत वाली सामग्री बढ़ रही थी तो वह ऐसी सामग्री को रोकने के लिए होने वाले ख़र्च में कटौती कर रहा था। हालाँकि, इसकी प्रतिक्रिया में फ़ेसबुक ने यह ज़रूर कहा कि उसने नफ़रत वाली पोस्टों की समीक्षा करने के घंटे बढ़ाए हैं और इसके लिए इसने तकनीक विकसित की है।

शुरुआत में कंपनी पर आरोप लगे थे कि फ़ेसबुक नफ़रत फैलाने वाली सामग्री रोकने में विफल रहा है। बाद में इसपर, ख़ासकर, मुसलिम विरोधी नफ़रत वाली पोस्टों पर कार्रवाई करने में पक्षपात का आरोप लगता रहा है। ऐसी रिपोर्टें आती रही हैं कि भारत में 2019 से ही ऐसी नफ़रत वाली पोस्टों की बाढ़ आ गई थी। फ़ेसबुक पर चुनिंदा तरीक़े से कार्रवाई करने का आरोप भी लगता रहा है। 

हाल ही में एक रिपोर्ट तो यह भी आई थी कि फ़ेसबुक का एल्गोरिदम यानी अंदरूनी सिस्टम उन सामग्री को आगे बढ़ाता है जो नफ़रत फैलाने वाली हैं। यानी आप क्या देखना चाहते हैं या नहीं, इससे फर्क नहीं पड़ता है और फ़ेसबुक का आंतरिक सिस्टम आपको नफ़रत व भड़काऊ सामग्री परोसना शुरू कर देता है।

एल्गोरिदम ही तय करता है कि फ़ेसबुक जैसा सोशल मीडिया या कोई भी सर्च इंजन किस तरह की सामग्री को आगे बढ़ाता है यानी प्रमोट करता है।

मिसाल के तौर पर यदि आपने अकाउंट में लॉग इन किया तो फ़ेसबुक आपको किस तरह के पेज या कंटेंट को आपके सामने सुझाव के रूप में परोसता है और आपको सुझाव देता है कि किसको फॉलो करें और क्या सामग्री देखें। हालाँकि, फ़ेसबुक इन रिपोर्टों को खारिज करता रहा है, लेकिन ह्विसल ब्लोअर लगातार ऐसी रिपोर्टें जारी करते रहे हैं।

अब ताज़ा रिपोर्ट भी एक ह्विसल ब्लोअर द्वारा जारी की गई है। यह रिपोर्ट एक अमेरिकी आयोग एसईसी को बताए गए दस्तावेजों का हिस्सा है और पूर्व फेसबुक कर्मचारी और ह्विसल ब्लोअर फ्रांसेस हॉगेन के कानूनी सलाहकार द्वारा संशोधित रूप में कांग्रेस को दिए गए हैं। कांग्रेस द्वारा प्राप्त संशोधित संस्करणों की समीक्षा 'द इंडियन एक्सप्रेस' सहित वैश्विक समाचार संगठनों के एक कंसोर्टियम द्वारा की गई है।

ताज़ा रिपोर्ट फ़ेसबुक के 15 अप्रैल, 2019 के आंतरिक दस्तावेज में बॉर्डर लाइन की सामग्री को लेकर है जिसमें कहा गया है कि 40 फ़ीसदी ऐसी सामग्री को नज़रअंदाज़ किया गया। 'द इंडियन एक्सप्रेस' की रिपोर्ट के अनुसार, फेसबुक 'बॉर्डर लाइन कंटेंट' को परिभाषित करता है- जो सामग्री सामुदायिक मानकों का उल्लंघन नहीं करती है, लेकिन इसकी पहचान समस्याग्रस्त सामग्री के रूप में की जा सकती है।

रिपोर्ट के अनुसार, अप्रैल 2019 की रिपोर्ट में यह भी बताया गया है कि हल्की-फुल्की सामग्री की तुलना में 'बॉर्डर लाइन' वाली सामग्री अधिक यूज़रों तक पहुंचती है।

जहाँ फे़सबुक के आंतरिक दस्तावेज़ बॉर्डर लाइन वाली सामग्री के काफ़ी तेज़ी से फैलने या ज़्यादा यूज़रों तक पहुँचने की बात कहते हैं वहीं, फ़ेसबुक के प्रवक्ता इसके उलट दावे करते हैं। ‘द इंडियन एक्सप्रेस’ की रिपोर्ट के अनुसार, अब फेसबुक इंक से बने मेटा इंक के प्रवक्ता ने कहा, 'हम बॉर्डर लाइन वाली सामग्री का पता लगाने के लिए एआई (आर्टिफिशियल इंटेलिजेंस यानी मशीन) सिस्टम को प्रशिक्षित करते हैं ताकि हम उस सामग्री के फैलने की रफ़्तार कम कर सकें। चुनाव से पहले या चुनाव के दौरान समस्याग्रस्त सामग्री के वायरल होने और संभावित रूप से हिंसा भड़काने के जोखिम को कम करने के लिए, हम उस सामग्री को फैलने से बेहद कम कर देंगे। इसकी शिकायत से पहले ही पहचान करने वाली हमारी तकनीक संभावित नफ़रत या हिंसा और उकसावे को भांप लेती है। ऐसी सामग्री यदि हमारी पॉलिसी का उल्लंघन करती है तो इसको हटा लिया जाता है, और इसका निर्धारण होने से पहले भी ऐसी सामग्री के फैलने की रफ़्तार बेहद धीमी हो जाती है।’

 - Satya Hindi

फ़ेसबुक ने भले ही यह दावा किया हो, लेकिन इसके बारे में पहले ही ऐसी रिपोर्ट आई थी कि इसका अंदरुनी सिस्टम नफ़रत वाली पोस्टों को बढ़ावा देता है। उस रिपोर्ट में फे़सबुक के ही एक शोध का हवाला दिया गया था। वह शोध फ़ेसबुक पर नये एकाउंट बनाकर किया गया था। 

फ़रवरी 2019 में फ़ेसबुक कर्मचारियों द्वारा किए गए उस शोध के बारे में एक रिपोर्ट ब्लूमबर्ग में भी छपी है। इसमें कहा गया है कि शोध के नतीजे तीन सप्ताह के भीतर जो मिले वे चौंकाने वाले थे। नए यूज़र के फ़ीड में फ़ेक न्यूज़ और भड़काऊ तसवीरों की बाढ़ आ गई। उनमें सिर काटने की ग्राफिक वाली तसवीरें, पाकिस्तान के ख़िलाफ़ भारत के हवाई हमले और हिंसा व कट्टरता वाली तसवीरें शामिल थीं। "थिंग्स दैट मेक यू लाफ" नाम के ग्रुप में जो फर्जी ख़बरें चल रही थीं उसमें से एक यह भी थी कि पाकिस्तान में एक बम विस्फोट में 300 आतंकवादी मारे गए। रिपोर्ट के अनुसार तब एक कर्मचारी ने लिखा था, 'मैंने पिछले 3 हफ्तों में मृत लोगों की इतनी अधिक तसवीरें देखी हैं, जितनी मैंने अपने पूरे जीवन में भी नहीं देखी हैं।'

अंग्रेज़ी के अलावा दूसरी भाषाओं में नफ़रत वाली सामग्री पर ठीक निगरानी नहीं होने के आरोप भी लगते रहे हैं। ताज़ा रिपोर्ट में आंतरिक दस्तावेजों का एक और सेट सामने आया है जिसका शीर्षक 'भारत में सांप्रदायिक संघर्ष' है। इसमें पाया गया कि जब मार्च 2020 में हिंदी और बंगाली में नफरत वाली सामग्री बढ़ गई तो फेसबुक की बंगाली सामग्री पर कार्रवाई की दर मार्च 2020 से लगभग पूरी तरह से गिर गई है। रिपोर्टिंग दरों में वृद्धि के बीच कार्रवाई दर कम हुई। जबकि अंग्रेजी भाषा में पोस्टों पर की गई कार्रवाई में तेज़ी से वृद्धि हुई।

सत्य हिंदी ऐप डाउनलोड करें