लड़कियों के लिए भद्दी भाषा प्रयोग करने की दोषी मशीन कैसे?
गूगल ने एक बड़ी गलती कर दी है जिसको लेकर इंटरनेट पर तीखी प्रतिक्रिया दी जा रही है. एक स्लैंग या अंग्रेजी की गाली सर्च करने पर गूगल की तरफ से गर्ल्स हॉस्टल की जानकारी सामने आ रही है.
-
Total Shares
गूगल सर्च हमारी जिंदगी का एक अहम हिस्सा बन चुकी है. ऐसे बहुत कम लोग होंगे जो अब गूगल को नहीं जानते और न ही उसपर कुछ सर्च कर पाते हैं. कोई कॉलेज असाइन्मेंट पूरा करना हो, किसी जगह का पता लगाना हो, किसी चीज़ के बारे में जानकारी चाहिए हो बस 2 सेकंड में सब कुछ आपके सामने. लेकिन कई बार गूगल सर्च कुछ ऐसी चीज़ें दिखा देती है जिन्हें देखकर लगता है कि 'हे भगवान ये क्या!!!'. कुछ ऐसा ही हुआ है गूगल के साथ. ताज़ा मामला है एक स्लैंग या अंग्रेजी की गाली का है. 'bitches near me' (मेरे आसपास की कुतिया) सर्च करने पर गूगल की तरफ से जो रिजल्ट आ रहा है उसमें 'girls near me' (मेरे आस पास की लड़कियां) शामिल हैं. इतना ही नहीं आस-पास के गर्ल्स हॉस्टल के एड्रेस भी रिजल्ट में दिखाई दे रहे हैं.
ये पूरी बात इंटरनेट के बाशिंदों को पसंद नहीं आई और ट्विटर पर लोगों ने अपने-अपने फोन के स्क्रीनशॉट शेयर करने शुरू कर दिए.
Google, can you explain why this fuckin exists pic.twitter.com/w0eslFoVSz
— aesthetic potato (@AHappyChipmunk) November 25, 2018
ये सिर्फ किसी एक शहर या किसी एक देश की समस्या नहीं बल्कि कई देशों के लोगों ने अपने-अपने फोन के स्क्रीन शॉट शेयर किए और रिजल्ट एक जैसा ही था.
From Karachi Pakistan pic.twitter.com/sSwgqNk3Pv
— Bibi Ansari (@curlyintentions) November 26, 2018
ये स्क्रीन शॉट पाकिस्तान से आया है.
Toronto ???? pic.twitter.com/B2ODIJeZjc
— saurabh singh (@die4sky) November 26, 2018
इसे टोरंटो कनाडा से अपलोड किया गया है.
I think it's common algorithm.. I just tried the same in Singapore and it listed all the schools near I stay... pic.twitter.com/ojZ4ZpVs4M
— Abhilash (@abhipan03) November 26, 2018
सिंगापुर से भी इसी तरह का रिजल्ट सामने आ रहा है.
हालांकि, यूजर्स इसे गूगल मैप्स से जोड़कर देख रहे हैं पर एक आम गूगल सर्च भी आपको इससे जोड़कर दिख जाएगी. भले ही पहले पेज पर ये रिजल्ट न दिखे, लेकिन यकीनन दूसरे पेज पर इस तरह का रिस्पॉन्स दिखने लगेगा.
ये पहली बार नहीं है जब गूगल की तरफ से कोई ऐसा कारनामा सामने आया हो. कुछ समय पहले गूगल सर्च पर Top 10 criminals सर्च करने पर नरेंद्र मोदी की फोटो आती थी.
गूगल सर्च रिजल्ट का स्क्रीन शॉट
इस मामले में भी बहुत बवाल मचा था और गूगल की तरफ से माफी भी मांगी गई थी.
हाल ही में, भारत के पहले प्रधानमंत्री के बारे में सर्च करने पर भी नरेंद्र मोदी की तस्वीर आती थी.
Type 'India first pm' in google and result is Mr.Narendra Modi's photo instead of Pt. Jawaharlal Nehru. @Google Pls correct it.. How come you also fell in the trap of Mr.Modi? pic.twitter.com/H8zlP9zzW0
— Ashok Tanwar (@AshokTanwar_INC) April 25, 2018
इंटरनेट पर इस गूगल सर्च के कारण बवाल मच गया है और लोग इसकी कड़ी निंदा कर रहे हैं. गूगल की तरफ से अभी तक इसपर कोई टिप्पणी नहीं की गई है, लेकिन फिर भी टेक एक्सपर्ट्स इसपर अपनी राय दे रहे हैं.
आखिर क्यों हो रहा है ऐसा?
एक टेक जर्नलिस्ट प्रशांतो के रॉय ने इस बात का जवाब भी दे ही दिया है. उनके हिसाब से ये AI (आर्टिफीशियल इंटेलिजेंस) के एक बग (एरर का टेक्निकल टर्म) के कारण होता है. इसका मतलब ये नहीं निकाला जाना चाहिए कि गूगल ने ये किया है. इसका एक सीधा सा लॉजिक है. ऐसे कई लोग होंने जिन्होंने इस तरह के कीवर्ड्स जैसे (Bi**h) टाइप किया होगा और सर्च रिजल्ट के कुछ पेज आगे पर गर्ल्स हॉस्टल आदि पर क्लिक किया होगा. जब ऐसा करने वाले यूजर्स की संख्या बढ़ी तो गूगल के AI ने इसे सेव कर लिया.
+ Clearly, there are users who typed in "bitches near me" into search, went through the results (maybe several pages down) and clicked on girls hostels, girls schools. With many doing that, those went into the top 10 results, and more users would click those. to rank them up. + pic.twitter.com/NfmLMGoMVw
— Prasanto K Roy (@prasanto) November 26, 2018
तो कुल मिलाकर गूगल की गलती कंपनी के तौर पर नहीं बल्कि सॉफ्टवेयर के तौर पर है. ये किसी ने जानकर नहीं किया, लेकिन ये सॉफ्टवेयर ने अपने आप सीख लिया.
+ So Google AI/ML system learns that "bitches near me" is a search for girls schools and girls hostels. AI/ML is doing what it's supposed to - learn from human behavior, however good or bad. AI/ML needs oversight, moderation as it develops.
— Prasanto K Roy (@prasanto) November 26, 2018
अब अगर रिजल्ट को ध्यान से देखा जाए तो हम पाएंगे कि गूगल जब गर्ल्स हॉस्टल रिजल्ट दिखा रहा है तो बोल्ड में Bi**h शब्द नहीं बल्कि GIRLS है. यानी गूगल सीधे तौर पर गर्ल्स नियर मी (Girls Near me) का रिजल्ट दे रहा है.
गूगल रिजल्ट का स्क्रीन शॉट
ये आर्टिफीशियल इंटेलिजेंस की गलती है जो यूजर्स द्वारा सर्च किए गए रिजल्ट को वैसा ही समझ लेता है. गूगल की नहीं. ये किसी एल्गोरिथम की गलती है जो हमारे सर्च रिजल्ट कंट्रोल करती है.
हालांकि, अगर देखा जाए तो गूगल कंपनी को तुरंत अपनी इस गलती को सुधार देना चाहिए. भले ही ये AI की गलती हो, लेकिन गूगल जैसे बड़े टेक जायंट का AI किसी बच्चे की तरह इंटरनेट स्लैंग और गालियां सर्च कर रहा है ये तो बेहद गलत बात है. ये गलती समझाती है कि लोग असल में लड़कियों के लिए इस तरह के स्लैंग का इस्तेमाल करते हैं और ये उनकी सोच और सर्च करने के तरीके ही हैं जिसके कारण गूगल AI इस तरह के शब्द सीख पाया.
ये हर मामले में महिलाओं को किसी स्लैंग का हिस्सा बनाने जैसा है. और इसको लेकर अगर लोग ऑफेंड हो रहे हैं तो बिलकुल सही हो रहे हैं. लेकिन ये भी मानना जरूरी है कि लड़कियों के लिए इंटरनेट पर भद्दी भाषा का प्रयोग करने के जिम्मेदार भी यूजर ही हैं. आर्टीफीशियल इंटेलीजेंस वाली मशीनें तो उसे सिर्फ रिकॉर्ड कर रही हैं.
ये भी पढ़ें-
अब KiKi से नहीं इस नए इंटरनेट चैलेंज से डरने की जरूरत है..
#InMyFeelings Challenge को ब्लू व्हेल चैलेंज क्यों बना रहे हैं लोग
आपकी राय