फ़ेसबुक का आंतरिक सिस्टम ही 'नफ़रत को बढ़ावा देने वाला'?
फ़ेसबुक पर नफ़रत फैलाने के मामले में चौंकाने वाली रिपोर्टें आई हैं। इस पर नफ़रत फैलाने वाली पोस्टों को रोकने में नाकाम रहने और ऐसी पोस्टों पर चुनिंदा तरीक़े से कार्रवाई करने के आरोप तो पहले से ही लगते रहे हैं, लेकिन अब फ़ेसबुक के आंतरिक सिस्टम पर ही गंभीर सवाल उठे हैं। आरोप लगे हैं कि इसके आंतरिक सिस्टम उन पोस्टों को आगे बढ़ाते हैं जो नफ़रत फैलाने वाले हैं। यानी आप क्या देखना चाहते हैं या नहीं, इससे फर्क नहीं पड़ता है और फ़ेसबुक का आंतरिक सिस्टम आपको नफ़रत व भड़काऊ सामग्री परोसना शुरू कर देता है।
आंतरिक सिस्टम का मतलब है फ़ेसबुक का एल्गोरिदम से। आसान शब्दों में कहें तो एल्गोरिदम ही तय करता है कि फ़ेसबुक जैसा सोशल मीडिया या कोई भी सर्च इंजन किस तरह की सामग्री को आगे बढ़ाता है यानी प्रमोट करता है। मिसाल के तौर पर यदि आपने अकाउंट में लॉग इन किया तो फ़ेसबुक आपको किस तरह के पेज या कंटेट को आपके सामने सुझाव के रूप में परोसता है और आपको सुझाव देता है कि किसको फॉलो करें और क्या सामग्री देखें।
फ़ेसबुक के कर्मचारियों ने इस पर शोध किया था। नतीजे आए तो वे चौंक गए। उन्होंने पड़ताल करने के लिए आम यूज़र की तरह एकाउंट बनाये थे। उसमें पाया कि उन यूज़र एकाउंट पर फ़ेसबुक ऐसी सामग्री देखने के लिए या फॉलो करने के लिए सुझाव दे रहा था यानी परोस रहा था जो नफ़रत, हिंसा और झूठी ख़बरों पर आधारित थी। इसमें से बहुत सामग्री पाकिस्तान के ख़िलाफ़ नफ़रत उगलने वाली और मुसलिम विरोधी थी।
एक रिपोर्ट के अनुसार, दो साल पहले केरल में फ़ेसबुक के एक शोधकर्ता ने यूज़र खाता बनाया था। उसको फ़ेसबुक के एल्गोरिदम के आधार पर ऐसी सामग्री सुझाव के रूप में आई जिसमें अभद्र भाषा थी और ग़लत सूचनाएँ थीं। इसी कारण कंपनी ने भारत में अपनी सिफारिश प्रणालियों यानी एल्गोरिदम का गंभीर विश्लेषण किया। 'द इंडियन एक्सप्रेस' की एक रिपोर्ट के अनुसार जवाब में फ़ेसबुक ने ही यह कहा है। रिपोर्ट के अनुसार, फ़ेसबुक के प्रवक्ता ने कहा कि इस पड़ताल पर गहन विश्लेषण किया गया और इससे उन्हें सुधार करने में मदद मिली। इसने यह भी कहा है कि इसने राजनीतिक ग्रुपों को भी एल्गोरिदम के सिस्टम से निकाला है। साफ़ है कि नफ़रती, भड़काऊ और हिंसा वाली सामग्री देने में राजनीतिक ग्रुप भी शामिल थे।
प्रवक्ता ने कहा कि अलग से अभद्र भाषा पर अंकुश लगाने का हमारा काम जारी है और हमने नफ़रत वाली सामग्री को छांटने के अपने सिस्टम को और मज़बूत किया है। उन्होंने कहा है कि इसमें 4 भारतीय भाषाओं को शामिल किया गया है।
फ़ेसबुक की यह प्रतिक्रिया न्यूयॉर्क टाइम्स की एक रिपोर्ट पर आई है। वह रिपोर्ट भारत में सोशल मीडिया प्लेटफार्म के प्रभाव के बारे में थी। न्यूयॉर्क टाइम्स की रिपोर्ट में कहा गया था कि उस शोधकर्ता की रिपोर्ट फ़ेसबुक के कर्मचारियों द्वारा लिखे गए दर्जनों अध्ययनों में से एक थी। 'न्यूयॉर्क टाइम्स सहित कई समाचार संगठनों के एक संघ ने आंतरिक दस्तावेज तैयार किया है जिसे 'द फेसबुक पेपर्स' नाम दिया गया है। उन्हें फ़ेसबुक के पूर्व प्रोडक्ट मैनेजर फ्रांसेस हौगेन द्वारा जुटाया गया था। हौगेन अब खामियों को उजागर करने वाले ह्विसल ब्लोअर बन गए हैं।
फ़रवरी 2019 में फ़ेसबुक कर्मचारियों द्वारा किए गए उस शोध के बारे में एक रिपोर्ट ब्लूमबर्ग में भी छपी है। इसमें कहा गया है कि शोध के नतीजे तीन सप्ताह के भीतर जो मिले वे चौंकाने वाले थे। नए यूज़र के फ़ीड में फ़ेक न्यूज़ और भड़काऊ तसवीरों की बाढ़ आ गई। उनमें सिर काटने की ग्राफिक वाली तसवीरें, पाकिस्तान के ख़िलाफ़ भारत के हवाई हमले और हिंसा व कट्टरता वाली तसवीरें शामिल थीं। "थिंग्स दैट मेक यू लाफ" नाम के ग्रुप में जो फर्जी ख़बरें चल रही थीं उसमें से एक यह भी थी कि पाकिस्तान में एक बम विस्फोट में 300 आतंकवादी मारे गए। रिपोर्ट के अनुसार तब एक कर्मचारी ने लिखा था, 'मैंने पिछले 3 हफ्तों में मृत लोगों की इतनी अधिक तसवीरें देखी हैं, जितनी मैंने अपने पूरे जीवन में भी नहीं देखी हैं।'
रिपोर्ट में कहा गया है कि सोशल मीडिया की इस दिग्गज कंपनी के आंतरिक दस्तावेज़ बताते हैं कि कंपनी वर्षों से इन समस्याओं को जानता है।
बता दें कि फ़ेसबुक पर पहले भी आरोप लगते रहे हैं कि वह नफ़रत फैलाने वाली सामग्री रोकने में विफल रहा है। इसपर ख़ासकर मुसलिम विरोधी नफ़रत वाली पोस्टों पर कार्रवाई करने में पक्षपात का आरोप लगता रहा है।
फ़ेसबुक की पूर्व कर्मचारी रहीं और फ़िलहाल व्हिसल ब्लोअर के तौर पर काम कर रही सोफ़ी झांग ने हाल ही में कहा था कि फ़ेसबुक ने बीजेपी सांसद से जुड़े फ़ेक अकाउंट्स वाले नेटवर्क को नहीं हटाया। जबकि उसने चुनाव को प्रभावित करने वाले कांग्रेस और आम आदमी पार्टी के फ़ेक अकाउंट्स के नेटवर्क के ख़िलाफ़ कार्रवाई की थी। ये नेटवर्क दिल्ली विधानसभा चुनाव 2020 के दौरान फ़ेसबुक के सामने आए थे। उन्होंने कहा कि उन्हें फ़ेक अकाउंट्स वाले इन नेटवर्क के बारे में 2019 के आख़िर में पता चला था। झांग ने तब चार ऐसे नेटवर्क का पता लगाया था, जिसमें फ़ेक अकाउंट थे, जिनका इस्तेमाल फ़ेक शेयर, लाइक्स, कमेंट व रिएक्शन्स के लिए किया जाता था। इनमें से दो नेटवर्क बीजेपी नेताओं से जुड़े हुए थे, जिनमें से एक सांसद था। इसके अलावा दो फ़ेक नेटवर्क एक कांग्रेसी नेता से जुड़े हुए थे।
आँखी दास का मामला
विवादों में रहीं फ़ेसबुक इंडिया की निदेशक आँखी दास को पिछले साल अपने पद से इस्तीफ़ा देना पड़ा था। उनके पद छोड़ने की वजह का पता नहीं लग सका था, पर इससे इनकार नहीं किया जा सकता है कि फ़ेसबुक ने उन्हें ख़ुद हटने को कहा हो। आँखी दास सुर्खियों में तब आई थीं जब वाल स्ट्रीट जर्नल ने यह ख़बर छापी थी कि उनके कहने पर ही फ़ेसबुक ने एक बीजेपी विधायक के मुसलिम विरोधी पोस्ट को नहीं हटाया। उस ख़बर में कहा गया था कि तेलंगाना विधायक के नफ़रत फैलाने वाले पोस्ट का पता फ़ेसबुक इंडिया की अंदरूनी टीम ने लगा लिया था और उसे हटाने की सलाह दी थी। पर आँखी दास ने कहा था कि ऐसे करने से भारत सरकार से कंपनी के रिश्ते ख़राब होंगे और इससे फ़ेसबुक के इस देश में व्यापारिक प्रभावित होंगे।