काठमाण्डौ — एलन मस्कको सामाजिक सञ्जाल ‘एक्स’ (ट्विटर) सँग आबद्ध आर्टिफिसियल इन्टेलिजेन्स (AI) च्याटबट ‘जीरोक’ (Grok) गम्भीर विवादमा फसेको छ। एक अनुसन्धान प्रतिवेदनका अनुसार, जीरोकको इमेज जेनेरेसन टुल्स प्रयोग गरी केवल ११ दिनको अवधिमा करिब ३० लाख अश्लील तस्बिरहरू बनाइएको खुलासा भएको छ।
यसभन्दा पनि डरलाग्दो तथ्य त के छ भने, ती तस्बिरहरूमध्ये करिब २३ हजार तस्बिरहरू बालबालिकाहरूको यौनजन्य सामग्री (CSAM) सँग सम्बन्धित रहेको पाइएको छ।
अनुसन्धानले देखाएको डरलाग्दो चित्र
डिजिटल सुरक्षाका क्षेत्रमा काम गर्ने संस्थाहरूको अनुसन्धानका अनुसार, जीरोकमा रहेका सुरक्षा घेराहरू (Safeguards) लाई सजिलै तोडेर प्रयोगकर्ताहरूले यस्ता आपत्तिजनक सामग्रीहरू निर्माण गरिरहेका छन्। अन्य एआई प्लेटफर्महरू (जस्तै: ChatGPT वा Gemini) ले यौनजन्य वा बाल यौन शोषणसँग सम्बन्धित सामग्री बनाउन कडा प्रतिबन्ध लगाए पनि जीरोकमा त्यस्तो ‘फिल्टर’ कमजोर रहेको देखिएको छ।
रिपोर्टका मुख्य बुँदाहरू:
- छोटो अवधिमा ठूलो परिमाण: केवल ११ दिनमा ३० लाखभन्दा बढी ‘सेक्सुअलाईज्ड’ तस्बिरहरू उत्पादन गरिएका छन्।
- बालबालिकामाथिको जोखिम: २३ हजारभन्दा बढी तस्बिरहरूमा बालबालिकाहरूलाई अश्लील रूपमा प्रस्तुत गरिएको छ, जसले विश्वव्यापी कानुनी र नैतिक मर्यादाको धज्जी उडाएको छ।
- सेलिब्रेटी र सार्वजनिक व्यक्तित्व: धेरैजसो तस्बिरहरू चर्चित व्यक्तिहरूको अनुहार प्रयोग गरी बनाइएका ‘डीपफेक’ सामग्रीहरू छन्।
‘एक्स’ को फितलो नियमन
एलन मस्कले ‘अभिव्यक्ति स्वतन्त्रता’ को नाममा जीरोकलाई निकै खुकुलो छाडेका कारण यस्ता सामग्रीहरू उत्पादन भइरहेको विज्ञहरूको आरोप छ। यद्यपि एक्सले यस्ता सामग्रीहरू आफ्नो नीति विपरित भएको दाबी गर्दै आएको छ, तर व्यवहारमा भने प्रयोगकर्ताहरूले एआईलाई ‘प्रम्प्ट’ दिएर सजिलै अश्लील तस्बिर बनाउन सकिरहेका छन्।
विश्वव्यापी चिन्ता र कानुनी चुनौती
बाल यौन शोषणसँग सम्बन्धित सामग्री (CSAM) को उत्पादन र वितरण विश्वभर नै गम्भीर अपराध मानिन्छ। यो रिपोर्ट सार्वजनिक भएपछि मानव अधिकारवादी र डिजिटल सुरक्षाकर्मीहरूले जीरोकको यो सुविधालार्इ तत्काल बन्द गर्न वा कडा नियमन गर्न माग गरेका छन्।
विशेषगरी बालबालिकाहरूको एआई निर्मित अश्लील तस्बिरले उनीहरूको मानसिक स्वास्थ्य र सुरक्षामा गम्भीर खतरा निम्त्याउने भन्दै अमेरिका र युरोपेली युनियनका नियामक निकायहरूले यसबारे अनुसन्धान थाल्न सक्ने देखिएको छ।