होम /न्यूज /व्यवसाय /अगर आपने अपने बच्‍चों की ऐसी तस्‍वीरें की गूगल फोटोज पर सेव तो होगी सख्‍त कार्रवाई, अकाउंट हो जाएगा ब्‍लॉक

अगर आपने अपने बच्‍चों की ऐसी तस्‍वीरें की गूगल फोटोज पर सेव तो होगी सख्‍त कार्रवाई, अकाउंट हो जाएगा ब्‍लॉक

बाल यौन शोषण सामग्री (CSAM) को लेकर गूगल काफी सख्‍ती बरत रहा है.

बाल यौन शोषण सामग्री (CSAM) को लेकर गूगल काफी सख्‍ती बरत रहा है.

सैन फ्रांसिस्‍को के एक शख्स ने डॉक्‍टर को दिखाने के लिए अपने बच्‍चे के गुप्‍तांग की फोटो खींचकर इसे अपने गूगल फोटोज (Go ...अधिक पढ़ें

हाइलाइट्स

बाल यौन शोषण सामग्री को चिह्नित करने के लिए गूगल दो तकनीकों इस्‍तेमाल करता है.
गूगल प्‍लेटफॉर्म्‍स पर अपलोड होने वाली हर सामग्री को स्‍कैन किया जाता है.
अमेरिका में CSAM अपलोड करने पर 140,868 गूगल अकाउंट्स डिस्‍एबल किए जा चुके हैं.

नई दिल्‍ली. अगर आपने बच्‍चे की नग्‍न तस्‍वीरें, गूगल फोटोज पर सेव की है तो आपका गूगल अकाउंट ब्‍लॉक हो सकता है. अमेरिका में दो लोगों के साथ ऐसा हुआ भी है. उनके द्वारा गूगल फोटोज पर सेव की गई अपने बच्‍चों की प्राइवेट पिक्‍चर्स को गूगल (Google) ने बाल यौन शोषण सामग्री (child sexual abuse material-CSAM) मानते हुए उनके गूगल अकाउंट को ही ब्‍लॉक कर दिया. यही नहीं गूगल ने इसकी जानकारी अमेरिकी प्रशासन को भी दी. न्‍यूयार्क टाइम्‍स की एक रिपोर्ट में बताया गया है कि अमेरिका के सैन फ्रांसिस्‍को के व्‍यक्ति ने डॉक्‍टर को दिखाने के लिए अपने बच्‍चे के गुप्‍तांग फोटो खिंची थी और इस पिक्‍चर को अपने गूगल फोटोज अकाउंट में सेव किया था. ऐसा ही कुछ टैक्‍सस में रहने वाले एक व्‍यक्ति ने किया था.

हालांकि, दोनों अभिभावकों को पुलिस से क्‍लीन चिट मिल चुकी है लेकिन अब भी गूगल ने उनके अकाउंट को अभी बहाल नहीं किया है. इन दोनों घटनाओं ने गूगल और अन्‍य कंपनियों द्वारा बाल यौन शोषण सामग्री (CSAM) को रोकने के लिए अपनाई जाने वाली तकनीकों से यूजर्स की प्राइवेसी को उत्‍पन्‍न हुए खतरों को रेखांकित किया है. यही नहीं इससे यह भी साबित हुआ है कि यूजर्स की प्राइवेसी की रक्षा करते हुए ऑनलाइन प्‍लेटफॉर्म्‍स पर बाल यौन शोषण सामग्री को पहचानना और हटाना टेढ़ी खीर है.

ये भी पढ़ें-  ओपन ऑफर क्‍या है और कैसे तय होती है इसकी कीमत? विस्‍तार से जानिए इसके बारे में

कौन सा कंटेंट है बाल यौन शोषण सामग्री?
गूगल के पॉलिसी पेज पर प्रतिबंधित सामग्री का विवरण दिया गया है. यह ऐसी सामग्री है जिसे गूगल प्‍लेटफॉर्म्‍स पर अपलोड करने पर आपका गूगल अकाउंट बंद हो सकता है. गूगल ने अमेरिकी सरकार द्वारा दी गई चाइल्‍ड पोर्नोग्राफी की परिभाषा को फॉलो किया है. बच्‍चों के जीवन को खतरे में डालने, यौन सामग्री के लिए बच्‍चों को तैयार करने, सेक्‍सटोर्सन, नाबालिग का यौन शोषण करने और बच्‍चों की तस्‍करी के लिए गूगल अपने प्रोडक्‍ट्स का प्रयोग करने की इजाजत नहीं देती है. गूगल ने स्‍पष्‍ट रूप से कहा है कि उपयोगकर्ताओं को ऐसा कंटेट डिस्ट्रिब्‍यूट नहीं करना चाहिए जिसमें नग्‍नता, ग्राफिक सेक्‍स एक्‍ट्स और अश्लील सामग्री हो. हालांकि, गूगल शैक्षणिक वैज्ञानिक, कलात्‍मक और डॉक्‍यूमेंट्री उद्देश्‍यों के लिए न्‍युडिटी की इजाजत देती है.

140,868 गूगल अकाउंट्स किए डिस्‍एबल
इंडियन एक्‍सप्रेस की एक रिपोर्ट के अनुसार, यह पहली बार नहीं हुआ है कि गूगल ने किसी के प्राइवेट अकाउंट में सेव फोटो को खुद ब खुद स्‍कैन करके उसे ‘बाल यौन शोषण सामग्री’ घोषित किया हो. फोर्ब्‍स की एक रिपोर्ट के अनुसार 2020 में भी कंसास के एक आर्टिस्‍ट के कुछ आर्ट वर्क को गूगल ने बाल यौन सामग्री बताकर प्रशासन को सूचना दे दी. आर्टिस्‍ट के खिलाफ वारंट तक जारी हो गया. गूगल अमेरिका में जिस भी कंटेंट को बाल यौन सामग्री के रूप में चिह्नित करता है उसकी जानकारी गुमशुदा और शोषित बच्चों के लिए बने राष्ट्रीय केंद्र (NCMEC) को देता है. गूगल ने अपनी ट्रांसपेरेंसी रिपोर्ट में भी माना है कि उसने एनसीएमईसी के पास जून से दिसंबर 2021 के बीच 458,178  रिपोर्ट भेजी थी और बाल यौन शोषण सामग्री के रूप में चिह्नित 32 लाख से अधिक सामग्री की सूचना दी थी. यही नहीं इस अवधि में गूगल ने 140,868 गूगल अकाउंट्स को डिस्‍एबल भी किया था.

ये भी पढ़ें- आरबीआई ने अमेरिकन एक्सप्रेस पर लगे प्रतिबंधों को 16 महीने बाद हटाया, देखें क्या है मामला

गूगल कैसे करती है CSAM की पहचान?
गूगल का कहना है कि वह अपने प्‍लेटफॉर्म्‍स पर बाल यौन शोषण सामग्री को पहचानने, हटाने और रिपोर्ट करने के लिए यूजर्स और गैर सरकारी संगठनों जैसी थर्ड पार्टिज द्वारा उपलब्‍ध कराई गई रिपोर्ट्स के अलावा स्वचालित पहचान (ऑटोमेटिड डिटेक्‍शन) और मानव समीक्षा (ह्यूमन रिव्‍यू) पर निर्भर है. हालांकि मुख्‍यत: गूगल सीएसएएम को स्‍कैन करने और टैग करने के लिए दो तकनीकों का उपयोग करता है. इनका प्रयोग आपके द्वारा गूगल ड्राइव और गूगल फोटोज पर अपलोड किए जाने वाले फोटोज, विडियो और फाइलों का निरीक्षण करने में किया जाता है.

हैश मैचिंग तकनीक
बाल यौन शोषण सामग्री (सीएसएएम) की पहचान के लिए गूगल हैश मैचिंग तकनीक का उपयोग करती है. हैश मेचिंग में यूट्यूब की सीएसएआई (Child Sexual Abuse Imagery)  मैच तकनीक का सहारा भी लिया जाता है. गूगल के अनुसार सीएसएआई मैच तकनीक चाइल्‍ड एब्‍यूज वीडियोज को पकड़ लेती है. इतना ही नहीं अगर किसी वीडियो में पहले से पहचानी गई किसी सामग्री को शामिल कर यूट्यूब पर दोबारा अपलोड किया जाए तो यह उसे भी पकड़ लेती है. मुख्‍यत: हर बार जब गूगल किसी सामग्री को सीएसएएम के रूप में आईडेंटिफाइ करती है तो वह उसे एक हैश या न्‍यूमेरिक वैल्‍यू देता है. फिर उस हैश का मिलान अपने डेटाबेस से करता है. गूगल ही नहीं माइक्रोसॉफ्ट, फेसबुक और ऐपल जैसी कंपनियां भी समान तकनीकों का प्रयोग कर रही हैं. हैश मैचिंग तकनीक का फायदा यह है कि गूगल को बाल यौन शोषण सामग्री को स्‍टोर नहीं करना पड़ता. यह केवल उसे दिए गए हैश या वेल्‍यू को ही स्‍टोर करती है. यदि किसी अन्‍य फोटो या वीडियो में भी वैसा ही हैश पाया जाता है तो हैश मैचिंग तकनीक उस सामग्री को सीएसएएम घोषित कर देती है.

मशीन लर्निंग तकनीक
बाल यौन शोषण सामग्री को पहचानने के लिए गूगल मशीन लर्निंग तकनीक का भी उपयोग कर रही है. इसका इस्‍तेमाल 2018 से किया जा रहा है. गूगल का दावा है कि मशीन लर्निंग टूल्‍स से ऐसी-ऐसी बाल यौन शोषण सामग्री का पता चला है जिसके बारे में पहले सोचा ही नहीं गया था. इमेज प्रोसेसिंग के लिए मशीन लर्निंग और डीप न्यूरल नेटवर्क का उपयोग किया जाता है. इसका फायदा यह है कि जो सीएसएएम हैशटेग डेटाबेस का हिस्‍सा नहीं होती वो भी पकड़ में आ जाती है. गूगल के अनुसार मशीन लर्निंग से जो संदिग्‍ध सामग्री पकड़ में आती है, उसकी पुष्टि स्‍पेस्लिस्‍ट रिव्‍यू टीम के द्वारा की जाती है. गूगल अपनी इस तकनीक को एनजीओ और इंडस्‍ट्री पार्टनर को नि:शुल्‍क उपलब्‍ध कराती है.

Tags: Business news in hindi, Google, Google photos, Technology

टॉप स्टोरीज
अधिक पढ़ें