प्रकाशित तिथि: 21 जनवरी, 2025 / अद्यतन तिथि: 21 जनवरी, 2025 – लेखक: Konrad Wolfenstein

कृत्रिम बुद्धिमत्ता (एआई) का विनियमन: क्या एआई की कोई सीमा नहीं होगी? राष्ट्रपति ट्रम्प ने कृत्रिम बुद्धिमत्ता की सुरक्षा पर बाइडन के कार्यकारी आदेश को रद्द कर दिया - रचनात्मक छवि: Xpert.Digital
ट्रंप ने बाइडेन के एआई विनियमन को पलट दिया: इस तकनीक के भविष्य के लिए इसका क्या अर्थ है?
ट्रंप के कार्यकाल का पहला दिन: एआई नियमों को पलटा गया – क्या डेवलपर्स को खुली छूट मिल गई है?
21 जनवरी, 2025 को, राष्ट्रपति डोनाल्ड ट्रम्प ने अपने कार्यकाल के पहले ही दिन, अपने पूर्ववर्ती जो बाइडेन द्वारा 2023 में जारी कृत्रिम बुद्धिमत्ता (एआई) को विनियमित करने वाले एक कार्यकारी आदेश को रद्द कर दिया। इस आदेश का उद्देश्य एआई से उपभोक्ताओं, श्रमिकों और राष्ट्रीय सुरक्षा को होने वाले संभावित खतरों को कम करना था। इसमें राष्ट्रीय सुरक्षा, अर्थव्यवस्था या सार्वजनिक स्वास्थ्य के लिए संभावित खतरा पैदा करने वाले एआई सिस्टम के डेवलपर्स को इन सिस्टम को जनता के लिए उपलब्ध कराने से पहले अमेरिकी सरकार के साथ सुरक्षा परीक्षण के परिणाम साझा करने की आवश्यकता थी।.
के लिए उपयुक्त:
निरसन के प्रभाव
नियमों में ढील
कार्यकारी आदेश को रद्द करने से अमेरिका में एआई विकास पर निगरानी कम होने की उम्मीद है। ट्रंप और उनके समर्थकों का तर्क है कि पूर्व नियम नवाचार को बाधित करते हैं और तकनीकी प्रगति के लिए हानिकारक माने जाते हैं। अपने चुनावी अभियान में ट्रंप ने एआई विकास को बढ़ावा देने के अपने इरादे पर जोर दिया था, लेकिन कोई ठोस कार्य योजना प्रस्तुत नहीं की थी।.
इस निर्णय की आलोचना
इस अध्यादेश को रद्द करने के फैसले की कई तरफ से आलोचना हुई है। विशेषज्ञों का कहना है कि पर्याप्त नियमन के बिना, एआई प्रौद्योगिकियों के जोखिम काफी बढ़ सकते हैं। संभावित खतरों में शामिल हैं:
- पारदर्शिता की कमी: डेवलपर्स सुरक्षा संबंधी जानकारी को छिपाने की प्रवृत्ति रख सकते हैं, जिससे एआई सिस्टम की ट्रेसबिलिटी और जवाबदेही प्रभावित होती है।.
- पूर्वाग्रह और भेदभाव: स्पष्ट दिशा-निर्देशों के अभाव में, एल्गोरिदम अनजाने पूर्वाग्रहों को मजबूत कर सकते हैं, जिससे भेदभावपूर्ण परिणाम हो सकते हैं।.
- सुरक्षा जोखिम: अपर्याप्त नियंत्रणों के कारण एआई सिस्टम का दुरुपयोग हो सकता है या वे ऐसे खतरनाक निर्णय ले सकते हैं जो सार्वजनिक सुरक्षा को खतरे में डाल सकते हैं।.
ये चिंताएं नवाचार को बढ़ावा देने और समाज की रक्षा करने के बीच एक संतुलित दृष्टिकोण खोजने की आवश्यकता को दर्शाती हैं।.
वैश्विक परिप्रेक्ष्य
ट्रम्प के इस फैसले का असर कृत्रिम बुद्धिमत्ता के क्षेत्र में अमेरिका की अंतरराष्ट्रीय प्रतिस्पर्धा पर भी पड़ सकता है। जहां अन्य देशों, विशेषकर यूरोपीय संघ ने कृत्रिम बुद्धिमत्ता के विकास पर व्यापक नियम बनाए हैं, वहीं ट्रम्प के नेतृत्व में अमेरिकी नीति से कम विनियमित वातावरण बन सकता है। हालांकि इससे अल्पावधि में नवाचार को बढ़ावा मिल सकता है, लेकिन दीर्घकालिक रूप से सुरक्षा और नैतिक मानकों के संबंध में जोखिम उत्पन्न होते हैं।.
यूरोपीय संघ के साथ तुलना
यूरोपीय संघ कृत्रिम बुद्धिमत्ता (एआई) को विनियमित करने के लिए अधिक सख्त दृष्टिकोण अपना रहा है। प्रस्तावित एआई अधिनियम के साथ, यूरोपीय संघ एआई प्रणालियों की पारदर्शिता, सुरक्षा और मौलिक अधिकारों के अनुपालन को सुनिश्चित करने के लिए एकसमान मानक स्थापित करने की योजना बना रहा है। यह जोखिम-आधारित दृष्टिकोण एआई अनुप्रयोगों को उनके संभावित जोखिमों के अनुसार वर्गीकृत करता है और संबंधित नियामक उपायों को परिभाषित करता है। इसके विपरीत, अमेरिका, ट्रम्प के शासनकाल में विनियमन में ढील के माध्यम से, अल्पकालिक प्रतिस्पर्धात्मक लाभ प्राप्त कर सकता है, लेकिन नैतिकता और सुरक्षा के मामले में यूरोपीय मानकों से पीछे रह जाने का जोखिम उठा रहा है।.
आर्थिक प्रभाव
कंपनियों के लिए अवसर
नियमों में ढील देने से कृत्रिम बुद्धिमत्ता विकास के क्षेत्र में अमेरिकी कंपनियों को अल्पकालिक लाभ मिल सकते हैं। नियामकीय बाधाओं में कमी से नवाचार चक्र और उत्पाद बाजार में जल्दी पहुंच सकेंगे। कंपनियां अधिक लचीले ढंग से काम कर सकेंगी और सरकार की व्यापक निगरानी के बिना नई प्रौद्योगिकियां विकसित कर सकेंगी। यह विशेष रूप से स्टार्टअप और छोटी कंपनियों के लिए आकर्षक हो सकता है, जिनके पास अक्सर जटिल नियामकीय आवश्यकताओं को पूरा करने के लिए संसाधनों की कमी होती है।.
श्रम बाजार के लिए जोखिम
साथ ही, अनियंत्रित एआई विकास से श्रम बाजार पर नकारात्मक प्रभाव पड़ने का खतरा भी है। स्वचालन और एआई के उपयोग से कुछ नौकरियां अप्रचलित हो सकती हैं, जिससे विभिन्न क्षेत्रों में रोजगार का नुकसान हो सकता है। उचित नियमों और सामाजिक सुरक्षा उपायों के अभाव में सामाजिक असमानताएं और भी बढ़ सकती हैं। इसलिए यह अत्यंत महत्वपूर्ण है कि नीति निर्माता एआई-संचालित कार्य जगत में सामाजिक रूप से जिम्मेदार परिवर्तन सुनिश्चित करने के लिए उपाय करें।.
नैतिक प्रतिपूर्ति
कृत्रिम बुद्धिमत्ता के विनियमन में ढील देने से नैतिक प्रश्न भी उठते हैं। स्पष्ट दिशा-निर्देशों के अभाव में, यह जोखिम बना रहता है कि कृत्रिम बुद्धिमत्ता प्रणालियाँ ऐसे निर्णय लेंगी जो नैतिक रूप से संदिग्ध हों या सामाजिक मानदंडों का उल्लंघन करें। इसलिए नैतिक मानक विकसित करना और यह सुनिश्चित करना आवश्यक है कि कृत्रिम बुद्धिमत्ता प्रणालियाँ सामाजिक मूल्यों के अनुरूप हों। इसके लिए विकासकर्ताओं, नियामक प्राधिकरणों और नागरिक समाज के बीच घनिष्ठ सहयोग की आवश्यकता है।.
भविष्य के विकास
यह देखना बाकी है कि ट्रंप प्रशासन के तहत कृत्रिम बुद्धिमत्ता के विनियमन में ढील का तकनीकी विकास और समाज पर क्या प्रभाव पड़ेगा। जहां समर्थक आर्थिक लाभ और नवाचार में वृद्धि की उम्मीद कर रहे हैं, वहीं आलोचक सुरक्षा, रोजगार बाजार और नैतिक मानकों पर संभावित नकारात्मक परिणामों की चेतावनी दे रहे हैं। कृत्रिम बुद्धिमत्ता के अवसरों और जोखिमों के प्रति संतुलित दृष्टिकोण सुनिश्चित करने के लिए निरंतर निगरानी और, यदि आवश्यक हो, तो नीतिगत उपायों में समायोजन की आवश्यकता होगी।.
कुल मिलाकर, ट्रंप का दृष्टिकोण कृत्रिम बुद्धिमत्ता के प्रति अमेरिकी नीति में एक स्पष्ट बदलाव को दर्शाता है और इस तकनीक के भविष्य के विकास को राष्ट्रीय सुरक्षा हितों और आर्थिक प्रतिस्पर्धा के संदर्भ में रखता है।.
के लिए उपयुक्त:

