‘आर्टीफिशियल इंंटैलीजैंस’ संबंधी अपराधों में हुई वृद्धि

Sunday, Feb 11, 2024 - 04:19 AM (IST)

सभी प्रकार के लोगों को लक्षित करने वाले डीपफेक वीडियो के उदय ने खतरे की घंटी बजा दी है, जिससे व्यापक चिंता पैदा हो गई है और डीपफेक तकनीक के दुरुपयोग को रोकने की तत्काल आवश्यकता है। संयुक्त राज्य अमरीका की सीनेट ने द्विदलीय कानून पेश किया है जिसे डिसरप्ट एक्सप्लिसिट फोज्र्ड इमेजेज एंड नॉन-कंसेन्सुअल एडिट्स (डिफियंस) एक्ट कहा जाता है। यह कानून व्यक्ति की सहमति के बिना कृत्रिम बुद्धिमत्ता (ए.आई.) द्वारा बनाई गई गैर-सहमति वाली, कामुक छवियों और वीडियो को सांझा करना अवैध बना देगा। 

इसी तरह, यूरोपीय संघ के प्रस्तावित आर्टीफिशियल  इंटैलीजैंस (ए.आई.) अधिनियम का उद्देश्य डीपफेक को संबोधित करने के लिए सख्त नियम प्रदान करना है। जैसे-जैसे यह तकनीक जनता के लिए अधिक उपलब्ध होती जा रही है, बड़ी संख्या में देश डीपफेक की दुविधा से जूझ रहे हैं और इस मुद्दे से कैसे निपटा जाए। सुदूर दक्षिणपंथी एला बुश और जैकब वेयर द्वारा डीपफेक डिजिटल डिसैप्शन के हथियारीकरण शीर्षक वाले इंटरनैशनल सैंटर ऑफ काऊंटर टैरेरिज्म के लिए एक नीति संक्षिप्त में कहा गया है कि ‘डीपफेक’ शब्द डीप लॄनग की अवधारणा से लिया गया है, जो कृत्रिम बुद्धिमत्ता का एक उपसमूह है- मशीन लर्निंग (ए.आई./एम.एल.)। डीप लर्निंग एल्गोरिदम गहरे तंत्रिका नैटवर्क से बने होते हैं, जो मानव मस्तिष्क को इस तरह से अनुकरण करते हैं जो ए.आई. को बड़ी मात्रा में डाटा से ‘सीखने’ में सक्षम बनाता है। 

पाठ और छवियों जैसे असंरचित डाटा को संसाधित करने की क्षमता के कारण डीप लर्निंग मशीन लर्निंग से अद्वितीय है, जो इसे डीपफेक वीडियो, ऑडियो, चित्र या टैक्स्ट बनाने के लिए आदर्श बनाती है। डीपफेक एक विशिष्ट डीप लॄनग एल्गोरिदम का उपयोग करके बनाए जाते हैं जिसे जैनरेटिव एडवरसैरियल नैटवर्क (जी.ए.एन.) कहा जाता है। जिसे पहली बार 2014 में शोधकत्र्ता इयान गुडफैलो द्वारा विकसित किया गया था। इसमें 2 तंत्रिका नैटवर्क शामिल हैं-एक जैनरेटर एल्गोरिदम और एक विभेदक एल्गोरिदम। जैनरेटर एल्गोरिदम एक नकली छवि (या मीडिया का अन्य रूप) बनाता है और विवेचक मीडिया की प्रामाणिकता का आंकलन करता है। स्थिर स्थिति तक पहुंचने तक कार्रवाई घंटों या दिनों तक दोहराई जाती है, जिसमें न तो जनरेटर और न ही विवेचक अपने प्रदर्शन में सुधार कर सकते हैं। 

दूसरे शब्दों में डीपफेक एक प्रकार का सिंथैटिक मीडिया है जिसमें डीप-जैनरेटिव तरीकों के माध्यम से किसी के चेहरे की बनावट में हेर-फेर किया जाता है। हालांकि किसी के चेहरे या आवाज की नकल करने की तकनीक नई नहीं है, लेकिन डीपफेक के बारे में जो क्रांतिकारी है वह जैनरेटिव एडवरसैरियल नेटवर्क्स(जी.ए.एन.) पर निर्भरता है। किसी भी तकनीक की तरह डीपफेक के भी सकारात्मक और नकारात्मक दोनों उपयोग हैं। फिल्म निर्माता बड़े पैमाने पर इस तकनीक का उपयोग फिल्मों का अनुवाद करने, अभिनेताओं की उम्र कम करने, फिल्म निर्माण को गति देने और इसकी लागत कम करने में मदद करने के लिए कर रहे हैं। 

शिक्षा के क्षेत्र में, डीपफेक बहुत अधिक नवीन पाठ बनाने में मदद कर सकता है जो सीखने के पारंपरिक रूप की तुलना में कहीं अधिक आकर्षक है। इसका उपयोग ऐतिहासिक क्षणों को फिर से प्रस्तुत करने के लिए किया जा सकता है। मानव शरीर रचना विज्ञान को समझने और वास्तुकला में सहायता करने में सहायता भी कर सकता है। इसका उपयोग चिकित्सा शोधकत्र्ताओं द्वारा वास्तविक रोगियों के बिना बीमारियों के इलाज के नए तरीके विकसित करने के लिए भी किया जा सकता है। डीपफेक के अनेक लाभ हैं। 

दूसरी ओर, वित्तीय घोटाले, गलत सूचना फैलाने और यौन रूप से स्पष्ट वीडियो सांझा करने जैसे अपराध करने के लिए डीपफेक का बड़े पैमाने पर उपयोग किया जा रहा है। ऐसी रिपोर्टें आई हैं कि पिछले विधानसभा चुनावों में विरोधियों को बदनाम करने के लिए डीपफेक का इस्तेमाल किया गया था और अगर कोई कदम नहीं उठाया गया, तो 2024 के आम चुनावों के दौरान ये व्यापक हो सकते हैं। यह लेखक स्वयं उनकी आवाज का अनुकरण करने वाले एक गहरे नकली वीडियो का शिकार था, जिसे 2019 के संसद चुनावों में मतदान से एक दिन पहले दुर्भावनापूर्ण रूप से प्रसारित किया गया था। सौभाग्य से यह प्रतिरूपण इतना कच्चा और नौसिखिया था कि इसे पकड़ लिया गया और इससे पहले कि यह पर्याप्त प्रतिष्ठित और चुनावी नुकसान कर पाता, उजागर हो गया। फिर भी गहरी नकल ने मतदाताओं के एक निश्चित वर्ग के मन में आशंकाएं पैदा कर दीं। 

ए.आई. और डीपफेक के विनियमन के संबंध में राज्यसभा में उठाए गए एक अतारांकित प्रश्न के जवाब में, सूचना और प्रसारण मंत्रालय ने कहा कि यह वर्तमान में आई.पी.सी. की धारा 469 (प्रतिष्ठा को नुकसान पहुंचाने के उद्देश्य से जालसाजी) और सूचना पर निर्भर करता है। डीपफेक के मुद्दे को संबोधित करने के लिए प्रौद्योगिकी (मध्यवर्ती दिशा-निर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 बनाए गए। ये नियम सोशल मीडिया मध्यस्थों पर प्रतिबंधित गलत सूचना, स्पष्ट रूप से गलत जानकारी और डीपफेक को शीघ्र हटाने को सुनिश्चित करने का दायित्व डालते हैं। दुर्भाग्य से, ये नियम डीपफेक के मुद्दे को प्रभावी ढंग से संबोधित करने में विफल हैं। इसके अलावा, ये नियम अत्यधिक अस्पष्ट और सामान्य हैं, जिनमें डीपफेक को विनियमित करने के लिए पर्याप्त उपायों का अभाव है। इस प्रकार, एक कानूनी शून्यता मौजूद है जिसके परिणामस्वरूप डीपफेक को उचित रूप से विनियमित करने में विफलता होती है। 

इस शून्यता के परिणामस्वरूप भारत में ए.आई. और डीपफेक संबंधी अपराध में वृद्धि हुई है। इसके अलावा एक रिपोर्ट के अनुसार भारत में डीपफेक की संख्या में 1700 प्रतिशत की वृद्धि देखी गई है। इससे स्पष्ट रूप से पता चलता है कि भारत प्रौद्योगिकी में तेजी से हो रही प्रगति के साथ तालमेल बिठाने के लिए गंभीर रूप से अविकसित और तैयार नहीं है। अगली संसद को इस मुद्दे के समाधान के लिए स्वत: संज्ञान लेते हुए संसद की एक संयुक्त समिति का गठन करना चाहिए और यह सुनिश्चित करना चाहिए कि सभी संबंधित हितधारकों के साथ उचित परामर्श किया जाए।-मनीष तिवारी 
      

Advertising