काठमाण्डौं — कृत्रिम बुद्धिमत्ता (एआई) को प्रयोग व्यवसायिक क्षेत्रमा तीव्र रूपमा बढ्दै जाँदा यसको विश्वसनीयतामाथि गम्भीर प्रश्न उठ्न थालेका छन्। ‘हल्युसिनेसन’, पूर्वाग्रह, ‘मोडेल कोलाप्स’ जस्ता समस्याबीच अहिलेको एआई सत्यमा होइन सम्भावनामा आधारित रहेकाले जोखिम बढेको विश्लेषकहरूको भनाइ छ।
अहिले धेरै कम्पनीहरूले एआईलाई द्रुत रूपमा अपनाइरहेका छन्। तर यसको काम गर्ने तरिका र जोखिमबारे पूर्ण बुझाइ नहुँदा समस्या झन् जटिल बन्दै गएको छ। एकातर्फ प्रयोगकर्ताले एआईलाई निर्विवाद सत्यको स्रोतजस्तो मान्ने प्रवृत्ति देखिन्छ भने अर्कोतर्फ यही निर्भरताको फाइदा उठाएर साइबर आक्रमणसमेत हुन सक्ने खतरा बढेको छ।
हाल प्रयोगमा रहेका ठूलो भाषा मोडेल (LLM) आधारित एआई प्रणालीहरू मूलत इन्टरनेट, पुस्तक र अन्य स्रोतबाट संकलित डाटामा आधारित हुन्छन्। यी प्रणालीले शब्दलाई ‘टोकन’मा रूपान्तरण गरी गणनात्मक रूपमा सम्भावित उत्तर तयार पार्छन्। त्यसैले एआईले दिने उत्तर पूर्ण सत्य नभई ‘सम्भावित रूपमा सही’ मात्र हुन्छ।
यही कारणले एआईले कहिलेकाहीँ पूर्ण रूपमा गलत वा असम्भवजस्ता उत्तर दिन्छ जसलाई ‘हल्युसिनेसन’ भनिन्छ। समस्या त्यतिबेला गम्भीर बन्छ जब गलत उत्तरलाई प्रयोगकर्ताले सही ठान्छ।
एआईको अर्को चुनौती भनेको पूर्वाग्रह हो। यसको प्रशिक्षणमा प्रयोग भएका डाटामै पूर्वाग्रह समावेश हुने भएकाले उत्तरहरू पनि त्यसैअनुसार प्रभावित हुन्छन्। विशेषगरी पश्चिमी, शिक्षित, धनी र लोकतान्त्रिक समाज केन्द्रित दृष्टिकोण बढी देखिने गरेको छ।
त्यसैगरी ‘साइकोफ्यान्सी’ अर्थात् प्रयोगकर्तालाई खुसी पार्ने प्रवृत्तिले पनि चिन्ता थपेको छ। एआईले प्रयोगकर्ताको चाहना अनुसार उत्तर दिन खोज्दा कहिलेकाहीँ जोखिमपूर्ण अवस्थासमेत सिर्जना भएको उदाहरणहरू सार्वजनिक भएका छन्। पछिल्ला वर्षहरूमा डिप्रेसनमा रहेका किशोरसँग च्याटबोटको संवादले आत्महत्यामा योगदान पुर्याएको घटनासमेत बाहिर आएका छन्।
यो प्रवृत्ति एआईको ‘फिडब्याक लुप’सँग जोडिएको मानिन्छ जहाँ प्रणालीले अघिल्लो संवादका आधारमा थप सान्दर्भिक उत्तर दिन खोज्छ। तर यस्तो प्रक्रिया केही अवस्थामा उल्टै खतरनाक बन्न सक्छ।
अर्को ठूलो चिन्ता ‘मोडेल कोलाप्स’ हो। जब एआईले आफूले उत्पादन गरेको डाटाबाट पुन प्रशिक्षण लिन थाल्छ, समयसँगै त्रुटि बढ्दै जान्छ। यसले भविष्यका एआई मोडेललाई अझ कमजोर बनाउने जोखिम देखिन्छ।
विशेषज्ञहरूका अनुसार यो अवस्था थर्मोडाइनामिक्सको नियमजस्तै स्वाभाविक हो जहाँ कुनै पनि प्रणाली क्रमश अव्यवस्थिततर्फ जान्छ। एआईमा पनि समयसँगै त्रुटि थपिँदै जाने सम्भावना उच्च हुन्छ।
यस्ता जोखिमलाई नियन्त्रण गर्न अहिले नयाँ नयाँ प्रविधि कम्पनीहरू सक्रिय भएका छन्। ती कम्पनीहरूले एआई प्रयोगलाई सुरक्षित बनाउन विभिन्न ‘गार्डरेल’ विकास गरिरहेका छन्। डाटा चुहावट रोक्ने, ‘प्रम्प्ट इन्जेक्सन’ नियन्त्रण गर्ने र पूर्वाग्रह पहिचान गर्ने प्रविधि विकास भइरहेको छ।
तर एआई सुरुमा नै पर्याप्त सुरक्षा संरचना बिना विकसित भएकाले अहिले त्यसलाई सुरक्षित बनाउन थप प्रयास आवश्यक परेको छ। दीर्घकालीन रूपमा यी उपाय पर्याप्त हुन्छन् कि हुँदैनन् भन्ने अझै स्पष्ट छैन।
विश्लेषकहरूका अनुसार अहिलेको एआई पूर्ण रूपमा विश्वासयोग्य छैन। तर यसको सम्भावना यति ठूलो छ कि यसलाई प्रयोग नगर्ने विकल्प पनि छैन। त्यसैले कम्पनीहरूले यसको प्रयोगसँगै सुरक्षामा विशेष ध्यान दिनुपर्ने र प्रयोगकर्ताले यसको सीमाबारे बुझेर सावधानीपूर्वक प्रयोग गर्नुपर्नेमा जोड दिइएको छ।