क्या AI अस्तित्व के लिए खतरा है? 5 विशेषज्ञों के जवाब आए सामने
punjabkesari.in Monday, Oct 06, 2025 - 04:32 PM (IST)

स्नोसवेल; ऑस्ट्रेलियन कैथोलिक यूनिवर्सिटी की निउशा शफ़ियाबादी; सीएसआईआरओ की सारा विविएन बेंटले और टॉरेंस यूनिवर्सिटी की सईदाली मिरजालिली) ब्रिस्बेन (ऑस्ट्रेलिया), छह अक्टूबर (द कन्वरसेशन) सर्वव्यापी कृत्रिम बुद्धिमत्ता (एआई) उत्पादों के वर्तमान युग में कई दावों पर विचार किया जाना है, विशेष रूप से बड़े भाषा मॉडल या एलएलएम पर आधारित जनरेटिव एआई उत्पाद, जैसे कि चैटजीपीटी, कोपायलट, जेमिनी और कई अन्य। एआई दुनिया बदल देगा। एआई ‘‘अद्भुत सफलताएँ'' लाएगा। एआई को बहुत ज़्यादा प्रचारित किया जा रहा है, और यह बुलबुला फूटने वाला है। एआई जल्द ही मानवीय क्षमताओं को पार कर जाएगा, और यह ‘‘अति बुद्धिमान'' एआई हम सभी को खत्म कर देगा। अगर इस आखिरी बात ने आपको चौंका दिया है और आपको ध्यान देने पर मजबूर कर दिया है, तो आप अकेले नहीं हैं। ‘‘एआई के गॉडफादर'', कंप्यूटर वैज्ञानिक और नोबेल पुरस्कार विजेता जेफ्री हिंटन ने कहा है कि अगले तीन दशकों में एआई के कारण मानव के विलुप्त होने की 10-20 प्रतिशत संभावना है। यह एक परेशान करने वाला विचार है - लेकिन इस बात पर कोई सहमति नहीं है कि ऐसा होगा या नहीं और कैसे। इसलिए हमनपांच विशेषज्ञों से पूछा: क्या एआई अस्तित्व के लिए खतरा पैदा करता है? पाँच में से तीन ने कहा, ‘‘नहीं''। यहाँ उनके विस्तृत उत्तर दिए गए हैं।
1. असली ख़तरा यह नहीं है कि एआई बहुत ज़्यादा स्मार्ट हो जाए। नहीं।
वर्तमान में प्रौद्योगिकी जिस स्थिति में है, उसमें वास्तविक खतरा यह नहीं है कि एआई बहुत अधिक स्मार्ट हो गया है - बल्कि खतरा यह है कि मनुष्य इन उपकरणों के निर्माण और उपयोग के बारे में गलत निर्णय ले रहे हैं। वर्तमान एआई प्रणालियाँ, प्रभावशाली होते हुए भी, मूलतः ‘‘स्टोकेस्टिक पैरट'' ही हैं। वे परिष्कृत पैटर्न-मिलान में संलग्न हैं जो पूर्वानुमान के माध्यम से बुद्धिमत्ता का अनुकरण करती हैं। और बढ़ते प्रमाण बताते हैं कि यह आधार आश्चर्यजनक रूप से कमज़ोर, अविश्वसनीय और तर्कपूर्ण विचारों के साथ असंगत है, बुद्धिमत्ता की तो बात ही छोड़ दें। जनरेटिव एआई में वर्तमान प्रौद्योगिकीय प्रगति प्रभावशाली, यहाँ तक कि परिवर्तनकारी भी है। हालाँकि, ये उपलब्धियाँ क्रमिक और अस्थिर हैं, तथा इस क्षेत्र में एआई विकास का दृष्टिकोण स्वाभाविक रूप से सीमित है। हालांकि भविष्य के प्रौद्योगिकीय प्रतिमान इस आकलन को बदल सकते हैं – और ऐसी प्रगति की भविष्यवाणी करना बेहद मुश्किल है – लेकिन एआई के सभी जोखिम अंततः मानवीय विकल्पों से ही उत्पन्न होते हैं। समृद्ध समाजों का मार्ग बेहतर मानवीय नेताओं, संस्थाओं और शासन से होकर गुजरता है। किसी काल्पनिक ‘सुपरइंटेलिजेंस' के बारे में अटकलें लगाने के बजाय जो इंसानों का सफाया कर सकती है, हमें निगरानी ढाँचों और ज़िम्मेदार विकास पर ध्यान केंद्रित करना चाहिए। अस्तित्वगत जोखिम कोड में नहीं छिपे हैं। अगर कहीं हैं, तो वे हमारे फैसलों में हैं।
2. अग्रणी एआई मॉडल तेज़ी से सामान्य-उद्देश्य क्षमताएँ प्राप्त कर रहे हैं। हाँ।
मेरा दृढ़ विश्वास है कि कृत्रिम बुद्धिमत्ता अस्तित्व के लिए एक ख़तरा है। अभी तक, आज की प्रणालियों में केवल वही है जिसे कमज़ोर या संकीर्ण एआई कहा जाता है - समर्पित कार्यों के लिए सीमित क्षमताएँ, लेकिन मानव-स्तरीय बुद्धिमत्ता नहीं, जिसे सामान्य एआई कहा जाता है। हालाँकि, अग्रणी मॉडल तेज़ी से सामान्य-उद्देश्य क्षमताएँ प्राप्त कर रहे हैं, जिससे बड़े पैमाने पर दुरुपयोग की संभावना बढ़ जाती है। एआई जितना अधिक सक्षम होता जाता है, उतना ही वह उस पर मानवीय नियंत्रण को भी कमज़ोर कर सकता है। सैकड़ों प्रमुख विशेषज्ञों, सार्वजनिक हस्तियों और शोधकर्ताओं ने चेतावनी दी है कि ‘‘एआई से विलुप्त होने के जोखिम को कम करना'' एक वैश्विक प्राथमिकता होनी चाहिए। मशीन लर्निंग शोधकर्ताओं के सर्वेक्षणों के अनुसार, इस सदी में विलुप्ति-स्तर के परिणामों की औसत संभावना लगभग 5 प्रतिशत है। यह एक छोटा प्रतिशत है, लेकिन नगण्य नहीं। साल 2023 में ब्लेचले घोषणा पर हस्ताक्षर करने वाली सरकारों ने “विनाशकारी” जोखिमों को स्वीकार किया है। एआई अनुसंधान प्रयोगशालाएं वर्तमान में ठोस खतरों की श्रेणियों पर नज़र रख रही हैं, जैसे कि बड़े पैमाने पर जैविक और साइबर हमलों के लिए एआई का दुरुपयोग। एआई द्वारा संचालित एक अस्तित्वगत आपदा अपरिहार्य नहीं है, लेकिन समझदारी यही है कि हमें ऐसी ‘‘सीमा रेखाएँ'' लागू करने की ज़रूरत है जिन्हें एआई पार न कर सके, साथ ही तैनाती से पहले कठोर परीक्षण और क्षमताओं के पैमाने के अनुसार स्वतंत्र मूल्यांकन भी ज़रूरी है। हमें अभी कार्रवाई करनी चाहिए, इससे पहले कि बहुत देर हो जाए।
3. एआई उतना ही अच्छा है जितना कि उसे इस्तेमाल करने वाले लोग। नहीं।
अब परिचित जनरेटिव एआई चैटबॉट्स के अलावा, एआई का भविष्य व्यापक रूप से अज्ञात बना हुआ है। अन्य क्रांतिकारी तकनीकों की तरह – परमाणु ऊर्जा या प्रिंटिंग प्रेस के बारे में सोचें – एआई हमारे जीवन को बदल देगा। ऐसा पहले ही हो चुका है। आज का रोज़गार बाज़ार अपरिचित है, शिक्षण पद्धतियाँ अपरिचित हैं, और निर्णय लेने का काम - चाहे स्वास्थ्य सेवा हो या सेना - अक्सर मशीनों के हाथों में होता है। इसलिए, इस दृष्टिकोण से, शायद एआई एक अस्तित्वगत ख़तरा है। लेकिन समस्या यहीं है। हम एआई के बारे में ऐसे बात करते हैं मानो यह अंतरिक्ष से हमारे जीवन में आ गई हो; जिस तरह से ये प्रणालियाँ स्वायत्त रूप से काम कर सकती हैं, वह इस कहानी को और हवा दे रहा है। लेकिन एआई अंतरिक्ष में नहीं बनी। एआई प्रणालियों का कोड मनुष्यों द्वारा लिखा जाता है, उनके विकास का वित्तपोषण मनुष्यों द्वारा ही किया जाता है, और उनका नियमन भी मनुष्यों द्वारा ही किया जाता है। इसलिए, यदि कोई ख़तरा है, तो वह मशीन नहीं, बल्कि मानव प्रतीत होगा। एआई एक असाधारण उपकरण है जो निस्संदेह मानव जाति की मदद कर सकता है। लेकिन किसी भी अन्य उपकरण की तरह, यह उतना ही अच्छा है जितना कि इसे इस्तेमाल करने वाले लोग। जैसे-जैसे हम एआई क्रांति का सामना कर रहे हैं, आलोचनात्मक सोच में वृद्धि और सीखी हुई लाचारी में कमी अब ज़रूरी हो सकती है।
4. सबसे स्पष्ट अस्तित्वगत मार्ग सैन्यीकरण है। हाँ।
मुझे इस बात की अधिक चिंता है कि मनुष्य सभ्यता को नष्ट करने के लिए एआई का उपयोग करेंगे, बजाय इसके कि एआई स्वायत्त रूप से नियंत्रण करके ऐसा करे। अस्तित्व का सबसे स्पष्ट मार्ग सैन्यीकरण और व्यापक निगरानी है। यह जोखिम तब और बढ़ जाता है जब हम नवाचार और विनियमन के बीच संतुलन बनाने में विफल रहते हैं और व्यवस्थाओं को बुरे लोगों के हाथों से दूर रखने के लिए पर्याप्त, वैश्विक रूप से लागू सुरक्षा-व्यवस्था नहीं बनाते। भविष्य के हथियारों में एआई को शामिल करने से मानवीय नियंत्रण कम हो जाएगा और हथियारों की होड़ शुरू हो जाएगी। अगर इसे कुप्रबंधित किया गया, तो एआई को राष्ट्रीय सुरक्षा से जोड़ने से एआई-चालित विश्व युद्ध का भी ख़तरा पैदा हो सकता है। शासन के साथ-साथ, हमें यह सुनिश्चित करना चाहिए कि एआई प्रणालियां बिना किसी पूर्वाग्रह, तथ्यों को विकृत किए या किसी एजेंडे को संतुष्ट किए बिना दुनिया के बारे में सच्चाई का सटीक प्रतिनिधित्व करें - लेकिन केवल इतना ही पर्याप्त नहीं है। सुरक्षा एआई के उद्देश्यों को मानवीय मूल्यों के साथ संरेखित करने, इन प्रणालियों पर मानवीय नियंत्रण बनाए रखने और हर कदम पर उनका कठोर परीक्षण करने पर भी निर्भर करती है। इस तरह, हम एआई प्रणालियों के साथ शांतिपूर्वक सह-अस्तित्व में रह सकते हैं।
5. जनरेटिव एआई की ‘‘बुद्धिमत्ता'' गंभीर रूप से सीमित है नहीं।
इस बात के बहुत कम प्रमाण हैं कि वैश्विक विनाश मचाने में सक्षम अति बुद्धिमान एआई निकट भविष्य में आ रहा है। मानवता के अस्तित्व के लिए मौजूदा खतरों के बारे में चिंताएँ – और प्रचार – जनरेटिव एआई, खासकर चैटजीपीटी, क्लाउड, जेमिनी और अन्य जैसे बड़े भाषा मॉडल में हुई प्रगति से उपजी हैं। ऐसा एआई पैटर्न-आधारित भविष्यवाणियाँ करता है कि कौन सा टेक्स्ट किसी उपयोगकर्ता की विशेष ज़रूरत को पूरा कर सकता है, यह उसके द्वारा टाइप किए गए प्रॉम्प्ट पर आधारित होता है। एआई की ‘‘बुद्धिमत्ता'', अपने आप में प्रभावशाली होने के बावजूद, गंभीर रूप से सीमित है। उदाहरण के लिए, बड़े भाषा मॉडल में तार्किक, तथ्यात्मक और वैचारिक समझ की विश्वसनीय क्षमता का अभाव होता है। इन महत्वपूर्ण पहलुओं में, एआई मनुष्यों की तरह समझ नहीं सकता और इसलिए कार्य नहीं कर सकता। भविष्य में एआई को इन सीमाओं से पार पाने में सक्षम बनाने वाली किसी तकनीकी सफलता की संभावना से इनकार नहीं किया जा सकता। लेकिन न ही इसकी कल्पना की जा सकती है और न ही अति-बुद्धिमान एआई के काल्पनिक खतरों पर ज़रूरत से ज़्यादा ज़ोर देने से आज एआई के वास्तविक नुकसानों, जैसे पक्षपातपूर्ण स्वचालित निर्णय, नौकरी छूटना और कॉपीराइट उल्लंघन, से हमारा ध्यान भटकने का खतरा है। यह जलवायु परिवर्तन जैसे वास्तविक अस्तित्वगत खतरों से भी ध्यान हटा सकता है। (नननन