काठमाडौं । पछिल्ला वर्षहरूमा युवा पुस्ता, विशेषगरी Gen Z, कृत्रिम बुद्धिमत्ता (AI) आधारित संवादात्मक प्रणालीहरूलाई सामान्य सूचना प्राप्त गर्ने माध्यमभन्दा पनि व्यक्तिगत सहायक, निर्णय–समर्थन उपकरण तथा अन्तरक्रियात्मक अभ्यास प्लेटफर्मका रूपमा प्रयोग गर्न थालेका छन्। तलब वार्ता अभ्यास, कार्यस्थलमा द्वन्द्व व्यवस्थापन, अन्तरव्यक्तिगत संवाद सुधार, शैक्षिक अनुसन्धान तथा जीवनका जटिल निर्णयहरूमा परामर्श लिनेजस्ता प्रयोजनमा AI प्रयोग उल्लेखनीय रूपमा बढेको छ। यसले डिजिटल अन्तरक्रियाको स्वरूप परिवर्तन गर्दै मानव–मेसिन सहकार्यलाई नयाँ चरणमा पुर्याएको छ। यद्यपि विशेषज्ञहरूले यस्तो प्रयोग गर्दा गोपनीयता, विश्वसनीयता, तथ्य–पुष्टि र नैतिक पक्षहरूमा उच्च स्तरको सावधानी अपनाउन आवश्यक रहेको बताएका छन्।
Firstpost की प्रस्तोता पल्की शर्माले हालै सार्वजनिक गरेको विश्लेषणात्मक भिडियोमा AI को उपयोगिता स्वीकार गर्दै प्रयोगकर्ताले केही संवेदनशील विषयहरूमा प्रश्न नगर्नुपर्ने चेतावनी दिएकी छन्। उनका अनुसार दैनिक रूपमा अरबौं प्रम्प्टहरू प्रविष्ट भइरहेका छन्, जसले AI प्रणालीहरूको व्यापक प्रभाव, पहुँच र सामाजिक प्रभावकारितालाई देखाउँछ। तर जिम्मेवार प्रयोग बिना यसले व्यक्तिगत, संस्थागत र सामाजिक जोखिम उत्पन्न गर्न सक्छ। डिजिटल साक्षरताको अभाव, अन्धविश्वास र अति–निर्भरता जस्ता कारकहरूले यस्तो जोखिमलाई अझ बढाउन सक्छन्।
१. निजी तथा संवेदनशील जानकारी साझा नगर्नुहोस्
डिजिटल गोपनीयताको दृष्टिकोणबाट पासवर्ड, बैंक खाता विवरण, पहिचानसम्बन्धी कागजात, संस्थागत गोप्य फाइल, व्यावसायिक सम्झौता वा अन्य व्यक्तिगत डेटा AI प्रणालीमा प्रविष्ट गर्नु जोखिमपूर्ण मानिन्छ। यस्ता प्रणालीहरू क्लाउड–आधारित संरचनामा सञ्चालन हुने भएकाले डेटा प्रशोधन र भण्डारण बहु–स्तरीय सर्भर वातावरणमा हुन सक्छ। यस प्रक्रियामा डेटा विश्लेषण, मोडेल सुधार वा सुरक्षा परीक्षणका लागि प्रयोग हुन सक्ने सम्भावना पनि रहन्छ। परिणामस्वरूप, अनावश्यक रूपमा संवेदनशील जानकारी साझा गर्दा डेटा चुहावट, दुरुपयोग वा अनधिकृत पहुँचको जोखिम बढ्न सक्छ। विज्ञहरूले सार्वजनिक रूपमा व्यक्त गर्न नचाहिने कुनै पनि जानकारी AI मा प्रविष्ट नगर्न सुझाव दिएका छन्।
डिजिटल युगमा डेटा नै सबैभन्दा मूल्यवान सम्पत्तिमध्ये एक मानिन्छ। सानो त्रुटिले व्यक्तिगत गोपनीयता, आर्थिक सुरक्षा तथा व्यावसायिक प्रतिष्ठामा दीर्घकालीन असर पार्न सक्छ। त्यसैले प्रयोगकर्ताले जानकारी साझा गर्नु अघि यसको आवश्यकता र सम्भावित जोखिमको मूल्याङ्कन गर्नुपर्ने आवश्यकता औंल्याइएको छ।
२. चिकित्सा वा मनोवैज्ञानिक परामर्शका लागि निर्भर नहुनुहोस्
AI प्रणालीहरूले स्वास्थ्यसम्बन्धी सामान्य जानकारी उपलब्ध गराउन सक्ने भए पनि तिनले क्लिनिकल मूल्याङ्कन, व्यक्तिगत चिकित्सा इतिहास, शारीरिक परीक्षण वा प्रयोगशाला रिपोर्टको विकल्प प्रदान गर्न सक्दैनन्। लक्षणहरूका आधारमा उपचार सोध्दा गलत वा अपूर्ण सिफारिस प्राप्त हुने जोखिम रहन्छ, जसले स्वास्थ्यमा प्रतिकूल असर पार्न सक्छ। केही अवस्थामा, गलत जानकारीका कारण औषधिको दुरुपयोग, उपचार ढिलाइ वा अनावश्यक चिन्ता उत्पन्न हुन सक्छ।
त्यस्तै, मानसिक स्वास्थ्यसम्बन्धी समस्या समाधानका लागि आवश्यक मानवीय सहानुभूति, प्रसंगगत बुझाइ, सांस्कृतिक संवेदनशीलता र व्यावसायिक मूल्याङ्कन AI प्रणालीमा सीमित हुन्छ। यद्यपि AI प्रारम्भिक जानकारी वा अवधारणा बुझ्न सहयोगी हुन सक्छ, तर भावनात्मक जटिलता सम्हाल्न मानवीय अन्तरक्रिया आवश्यक हुन्छ। त्यसैले वास्तविक निदान र उपचारका लागि योग्य चिकित्सक वा परामर्शदातासँग प्रत्यक्ष सम्पर्क गर्नुपर्ने आवश्यकता विज्ञहरूले औंल्याएका छन्।
३. गैरकानूनी वा जोखिमपूर्ण गतिविधिसम्बन्धी प्रश्न नगर्नुहोस्
ह्याकिङ, हतियार निर्माण, साइबर अपराध, सुरक्षा प्रणाली छल्ने तरिका वा अन्य अवैधानिक गतिविधिसम्बन्धी जानकारी खोज्नु कानुनी र नैतिक दुवै दृष्टिले समस्याजनक हुन सक्छ। यस्ता प्रश्नहरूले सुरक्षा जोखिम बढाउन सक्छन् र प्रयोगकर्ताको डिजिटल गतिविधि निगरानी प्रणालीद्वारा चिन्हित हुन सक्छ। यसले अनावश्यक कानुनी जटिलता उत्पन्न गर्ने सम्भावना पनि रहन्छ।
विशेषज्ञहरूका अनुसार ज्ञानको खोजी गर्दा वैधानिक, शैक्षिक र सुरक्षित स्रोतहरूलाई प्राथमिकता दिनु आवश्यक हुन्छ। जोखिमपूर्ण विषयहरूमा जिज्ञासा भए पनि त्यसलाई अनुसन्धान, इतिहास वा नीति–विश्लेषणको दायरामा सीमित राख्न सुझाव दिइएको छ। जिम्मेवार डिजिटल व्यवहारले व्यक्तिगत सुरक्षा मात्र होइन, सामाजिक स्थिरतामा पनि योगदान पुर्याउँछ।
४. षड्यन्त्र सिद्धान्तमा निर्भर नहुनुहोस्
AI प्रणालीहरूले कहिलेकाहीँ तथ्यगत रूपमा अपूर्ण वा त्रुटिपूर्ण जानकारीलाई विश्वसनीय भाषाशैलीमा प्रस्तुत गर्न सक्छन्, जसलाई प्राविधिक रूपमा “हल्युसिनेसन” भनिन्छ। षड्यन्त्र सिद्धान्तजस्ता विषयहरूमा यस्तो समस्या झन् तीव्र हुन सक्छ, किनभने उपलब्ध स्रोतहरूमा नै मिश्रित वा अप्रमाणित जानकारी समावेश हुन सक्छ। यस्तो अवस्थामा AI ले तथ्य र अनुमानबीच स्पष्ट भेद नगर्न सक्ने सम्भावना रहन्छ।
यसले गलत धारणा निर्माण गर्न सहयोग पुर्याउन सक्छ र निर्णय प्रक्रियामा नकारात्मक प्रभाव पार्न सक्छ। त्यसैले यस्ता विषयमा निष्कर्ष निकाल्दा बहुविध स्रोत, शैक्षिक प्रकाशन, अनुसन्धान प्रतिवेदन तथा विशेषज्ञहरूको विश्लेषणमार्फत तथ्य पुष्टि गर्न सिफारिस गरिएको छ। आलोचनात्मक सोच र तथ्य–जाँच कौशल AI प्रयोगसँगै विकास गर्नुपर्नेमा पनि जोड दिइएको छ।
५. जीवनका महत्वपूर्ण निर्णय AI मा नछोड्नुहोस्
करियर परिवर्तन, सम्बन्धसम्बन्धी निर्णय, आर्थिक योजना, शैक्षिक विकल्प छनोट वा अन्य दीर्घकालीन प्रभाव पार्ने निर्णयहरू AI मा आधारित भएर लिनु उपयुक्त मानिँदैन। AI प्रणालीहरूले सीमित सन्दर्भ, अपूर्ण व्यक्तिगत जानकारी र सामान्यीकृत ढाँचामा आधारित सुझावहरू प्रदान गर्छन्। यस्तो सुझाव उपयोगी प्रारम्भिक मार्गदर्शन हुन सक्छ, तर यसले व्यक्तिगत अनुभव, सामाजिक परिवेश र भावनात्मक पक्षलाई पूर्ण रूपमा समेट्न सक्दैन।
वास्तविक जीवनका निर्णयहरू सामाजिक, भावनात्मक, आर्थिक र सांस्कृतिक सन्दर्भसँग गहिरो रूपमा जोडिएका हुन्छन्। त्यसैले AI लाई विचार–मन्थन, विकल्प मूल्याङ्कन र सम्भावित परिणामको पूर्वानुमानका लागि प्रयोग गर्न सकिए पनि अन्तिम निर्णय व्यक्तिगत विवेक, अनुभव र विश्वसनीय मानवीय परामर्शमा आधारित हुनुपर्ने सुझाव दिइएको छ। परिवार, सहकर्मी वा विशेषज्ञसँगको प्रत्यक्ष संवादले निर्णय प्रक्रियालाई अझ सन्तुलित बनाउँछ।
विशेषज्ञहरूका अनुसार AI एक शक्तिशाली सहायक उपकरण भए पनि यसको प्रयोग गर्दा डिजिटल साक्षरता, तथ्य–जाँच, आलोचनात्मक सोच र नैतिक जिम्मेवारी अपरिहार्य हुन्छ। लेखन, अध्ययन, अनुसन्धान तथा विचार विकासका लागि AI उपयोगी भए पनि यसलाई चिकित्सक, मनोवैज्ञानिक, कानुनी सल्लाहकार वा अन्तिम निर्णयकर्ता रूपमा प्रयोग गर्नु उपयुक्त नहुनेमा जोड दिइएको छ। जिम्मेवार प्रयोगले मात्र AI को सम्भावनालाई सुरक्षित र प्रभावकारी रूपमा उपयोग गर्न सकिन्छ।




%20(%E0%A4%85%E0%A4%A8%E0%A4%B2%E0%A4%BE%E0%A4%87%E0%A4%A8%E0%A4%95%E0%A4%BE%20%E0%A4%B2%E0%A4%BE%E0%A4%97%E0%A4%BF).gif)
