बाल यौन शोषण सामग्री (CSAM) को लेकर गूगल काफी सख्ती बरत रहा है.
नई दिल्ली. अगर आपने बच्चे की नग्न तस्वीरें, गूगल फोटोज पर सेव की है तो आपका गूगल अकाउंट ब्लॉक हो सकता है. अमेरिका में दो लोगों के साथ ऐसा हुआ भी है. उनके द्वारा गूगल फोटोज पर सेव की गई अपने बच्चों की प्राइवेट पिक्चर्स को गूगल (Google) ने बाल यौन शोषण सामग्री (child sexual abuse material-CSAM) मानते हुए उनके गूगल अकाउंट को ही ब्लॉक कर दिया. यही नहीं गूगल ने इसकी जानकारी अमेरिकी प्रशासन को भी दी. न्यूयार्क टाइम्स की एक रिपोर्ट में बताया गया है कि अमेरिका के सैन फ्रांसिस्को के व्यक्ति ने डॉक्टर को दिखाने के लिए अपने बच्चे के गुप्तांग फोटो खिंची थी और इस पिक्चर को अपने गूगल फोटोज अकाउंट में सेव किया था. ऐसा ही कुछ टैक्सस में रहने वाले एक व्यक्ति ने किया था.
हालांकि, दोनों अभिभावकों को पुलिस से क्लीन चिट मिल चुकी है लेकिन अब भी गूगल ने उनके अकाउंट को अभी बहाल नहीं किया है. इन दोनों घटनाओं ने गूगल और अन्य कंपनियों द्वारा बाल यौन शोषण सामग्री (CSAM) को रोकने के लिए अपनाई जाने वाली तकनीकों से यूजर्स की प्राइवेसी को उत्पन्न हुए खतरों को रेखांकित किया है. यही नहीं इससे यह भी साबित हुआ है कि यूजर्स की प्राइवेसी की रक्षा करते हुए ऑनलाइन प्लेटफॉर्म्स पर बाल यौन शोषण सामग्री को पहचानना और हटाना टेढ़ी खीर है.
ये भी पढ़ें- ओपन ऑफर क्या है और कैसे तय होती है इसकी कीमत? विस्तार से जानिए इसके बारे में
कौन सा कंटेंट है बाल यौन शोषण सामग्री?
गूगल के पॉलिसी पेज पर प्रतिबंधित सामग्री का विवरण दिया गया है. यह ऐसी सामग्री है जिसे गूगल प्लेटफॉर्म्स पर अपलोड करने पर आपका गूगल अकाउंट बंद हो सकता है. गूगल ने अमेरिकी सरकार द्वारा दी गई चाइल्ड पोर्नोग्राफी की परिभाषा को फॉलो किया है. बच्चों के जीवन को खतरे में डालने, यौन सामग्री के लिए बच्चों को तैयार करने, सेक्सटोर्सन, नाबालिग का यौन शोषण करने और बच्चों की तस्करी के लिए गूगल अपने प्रोडक्ट्स का प्रयोग करने की इजाजत नहीं देती है. गूगल ने स्पष्ट रूप से कहा है कि उपयोगकर्ताओं को ऐसा कंटेट डिस्ट्रिब्यूट नहीं करना चाहिए जिसमें नग्नता, ग्राफिक सेक्स एक्ट्स और अश्लील सामग्री हो. हालांकि, गूगल शैक्षणिक वैज्ञानिक, कलात्मक और डॉक्यूमेंट्री उद्देश्यों के लिए न्युडिटी की इजाजत देती है.
140,868 गूगल अकाउंट्स किए डिस्एबल
इंडियन एक्सप्रेस की एक रिपोर्ट के अनुसार, यह पहली बार नहीं हुआ है कि गूगल ने किसी के प्राइवेट अकाउंट में सेव फोटो को खुद ब खुद स्कैन करके उसे ‘बाल यौन शोषण सामग्री’ घोषित किया हो. फोर्ब्स की एक रिपोर्ट के अनुसार 2020 में भी कंसास के एक आर्टिस्ट के कुछ आर्ट वर्क को गूगल ने बाल यौन सामग्री बताकर प्रशासन को सूचना दे दी. आर्टिस्ट के खिलाफ वारंट तक जारी हो गया. गूगल अमेरिका में जिस भी कंटेंट को बाल यौन सामग्री के रूप में चिह्नित करता है उसकी जानकारी गुमशुदा और शोषित बच्चों के लिए बने राष्ट्रीय केंद्र (NCMEC) को देता है. गूगल ने अपनी ट्रांसपेरेंसी रिपोर्ट में भी माना है कि उसने एनसीएमईसी के पास जून से दिसंबर 2021 के बीच 458,178 रिपोर्ट भेजी थी और बाल यौन शोषण सामग्री के रूप में चिह्नित 32 लाख से अधिक सामग्री की सूचना दी थी. यही नहीं इस अवधि में गूगल ने 140,868 गूगल अकाउंट्स को डिस्एबल भी किया था.
गूगल कैसे करती है CSAM की पहचान?
गूगल का कहना है कि वह अपने प्लेटफॉर्म्स पर बाल यौन शोषण सामग्री को पहचानने, हटाने और रिपोर्ट करने के लिए यूजर्स और गैर सरकारी संगठनों जैसी थर्ड पार्टिज द्वारा उपलब्ध कराई गई रिपोर्ट्स के अलावा स्वचालित पहचान (ऑटोमेटिड डिटेक्शन) और मानव समीक्षा (ह्यूमन रिव्यू) पर निर्भर है. हालांकि मुख्यत: गूगल सीएसएएम को स्कैन करने और टैग करने के लिए दो तकनीकों का उपयोग करता है. इनका प्रयोग आपके द्वारा गूगल ड्राइव और गूगल फोटोज पर अपलोड किए जाने वाले फोटोज, विडियो और फाइलों का निरीक्षण करने में किया जाता है.
हैश मैचिंग तकनीक
बाल यौन शोषण सामग्री (सीएसएएम) की पहचान के लिए गूगल हैश मैचिंग तकनीक का उपयोग करती है. हैश मेचिंग में यूट्यूब की सीएसएआई (Child Sexual Abuse Imagery) मैच तकनीक का सहारा भी लिया जाता है. गूगल के अनुसार सीएसएआई मैच तकनीक चाइल्ड एब्यूज वीडियोज को पकड़ लेती है. इतना ही नहीं अगर किसी वीडियो में पहले से पहचानी गई किसी सामग्री को शामिल कर यूट्यूब पर दोबारा अपलोड किया जाए तो यह उसे भी पकड़ लेती है. मुख्यत: हर बार जब गूगल किसी सामग्री को सीएसएएम के रूप में आईडेंटिफाइ करती है तो वह उसे एक हैश या न्यूमेरिक वैल्यू देता है. फिर उस हैश का मिलान अपने डेटाबेस से करता है. गूगल ही नहीं माइक्रोसॉफ्ट, फेसबुक और ऐपल जैसी कंपनियां भी समान तकनीकों का प्रयोग कर रही हैं. हैश मैचिंग तकनीक का फायदा यह है कि गूगल को बाल यौन शोषण सामग्री को स्टोर नहीं करना पड़ता. यह केवल उसे दिए गए हैश या वेल्यू को ही स्टोर करती है. यदि किसी अन्य फोटो या वीडियो में भी वैसा ही हैश पाया जाता है तो हैश मैचिंग तकनीक उस सामग्री को सीएसएएम घोषित कर देती है.
मशीन लर्निंग तकनीक
बाल यौन शोषण सामग्री को पहचानने के लिए गूगल मशीन लर्निंग तकनीक का भी उपयोग कर रही है. इसका इस्तेमाल 2018 से किया जा रहा है. गूगल का दावा है कि मशीन लर्निंग टूल्स से ऐसी-ऐसी बाल यौन शोषण सामग्री का पता चला है जिसके बारे में पहले सोचा ही नहीं गया था. इमेज प्रोसेसिंग के लिए मशीन लर्निंग और डीप न्यूरल नेटवर्क का उपयोग किया जाता है. इसका फायदा यह है कि जो सीएसएएम हैशटेग डेटाबेस का हिस्सा नहीं होती वो भी पकड़ में आ जाती है. गूगल के अनुसार मशीन लर्निंग से जो संदिग्ध सामग्री पकड़ में आती है, उसकी पुष्टि स्पेस्लिस्ट रिव्यू टीम के द्वारा की जाती है. गूगल अपनी इस तकनीक को एनजीओ और इंडस्ट्री पार्टनर को नि:शुल्क उपलब्ध कराती है.
ब्रेकिंग न्यूज़ हिंदी में सबसे पहले पढ़ें News18 हिंदी| आज की ताजा खबर, लाइव न्यूज अपडेट, पढ़ें सबसे विश्वसनीय हिंदी न्यूज़ वेबसाइट News18 हिंदी|
Tags: Business news in hindi, Google, Google photos, Technology