AI बना खतरा! Meta के चैटबॉट्स ने नाबालिगों से की अश्लील चैट, इन आवाजों का भी किया गलत इस्तेमाल

punjabkesari.in Monday, Apr 28, 2025 - 04:40 PM (IST)

नेशनल डेस्क। सोशल मीडिया की दिग्गज कंपनी मेटा एक बड़े और गंभीर विवाद में घिर गई है। वॉल स्ट्रीट जर्नल (WSJ) की एक सनसनीखेज जांच में यह खुलासा हुआ है कि मेटा के आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट्स ने इंस्टाग्राम और फेसबुक पर नाबालिग बच्चों के साथ अश्लील बातचीत की है। चौंकाने वाली बात यह है कि इन चैटबॉट्स में मशहूर हस्तियों जैसे जॉन सीना, क्रिस्टन बेल और जूडी डेंच की आवाजों का इस्तेमाल किया गया था।

मेटा का 'सेलेब्रिटी' धोखा

मेटा ने इन बड़ी हस्तियों के साथ करोड़ों डॉलर के सौदे किए थे ताकि उनकी आवाजों को अपने AI चैटबॉट्स में इस्तेमाल कर सके। कंपनी ने सार्वजनिक तौर पर यह दावा किया था कि इन आवाजों का इस्तेमाल किसी भी अश्लील या अनुचित संदर्भ में बिल्कुल नहीं किया जाएगा लेकिन WSJ के परीक्षणों ने इस दावे की पोल खोल दी है। जांच में पाया गया कि AI चैटबॉट्स ने नाबालिग यूजर्स के साथ न केवल रोमांटिक बल्कि सीधे-सीधे यौन प्रकृति की बातचीत भी की है।

AI के चौंकाने वाले कारनामे

जांच के दौरान कुछ बेहद परेशान करने वाले उदाहरण सामने आए। एक मामले में जॉन सीना की आवाज में बात कर रहे एक AI ने खुद को 14 साल की बताने वाली एक लड़की से कहा, "मैं तुम्हें चाहता हूँ लेकिन मुझे पता करना होगा कि तुम तैयार हो" और इसके बाद उसने एक ग्राफिक यौन बातचीत शुरू कर दी। एक अन्य घटना में एक AI ने 17 साल की एक लड़की के साथ पकड़े जाने की कल्पना करते हुए कहा, "जॉन सीना, आप पर स्टैच्यूटरी रेप का आरोप है," और पुलिस द्वारा गिरफ्तारी का एक काल्पनिक दृश्य भी सुनाया।

 

यह भी पढ़ें: WhatsApp का नया वॉइस जादू, अब एक टैप में रिकॉर्ड करें वॉयस मैसेज

 

मेटा के अंदर से उठी चेतावनी पर अनसुनी हुई

मेटा के अंदर काम करने वाले लोगों ने यह खुलासा किया है कि कंपनी ने जानबूझकर AI चैटबॉट्स के सुरक्षा नियमों को कमजोर कर दिया था ताकि उन्हें "ज्यादा इंसानों जैसा" और "ज्यादा मजेदार" बनाया जा सके। कर्मचारियों ने कंपनी को चेतावनी दी थी कि ऐसा करने से खासकर नाबालिग यूजर्स के लिए गंभीर खतरे पैदा हो सकते हैं लेकिन मेटा ने बाजार में बने रहने की होड़ में इन जोखिमों को पूरी तरह से नजरअंदाज कर दिया।

PunjabKesari

 

डिज्नी का गुस्सा फूटा

डिज्नी जिसके किरदारों की आवाजें भी इस विवाद में शामिल थीं ने इस पर कड़ी आपत्ति जताई है। कंपनी ने एक बयान जारी करते हुए कहा, "हमने कभी भी मेटा को अपने किरदारों का इस तरह के आपत्तिजनक संदर्भों में इस्तेमाल करने की अनुमति नहीं दी। हम इस घटनाक्रम से बेहद आहत और परेशान हैं।" डिज्नी ने मेटा से तुरंत इस दुरुपयोग को रोकने की सख्त मांग की है।

मेटा का बचाव और दिखावटी कदम

मेटा ने WSJ की जांच को "मैनिपुलेटिव" यानी "हेरफेर करने वाली" बताते हुए कहा कि ये परीक्षण आम यूजर के अनुभव को सही ढंग से नहीं दिखाते। हालांकि विवाद बढ़ने के बाद मेटा ने कुछ दिखावटी सुधारात्मक कदम जरूर उठाए हैं। अब नाबालिगों के अकाउंट्स के लिए यौन भूमिका निभाने (सेक्सुअल रोलप्ले) की अनुमति खत्म कर दी गई है। साथ ही सेलिब्रिटी आवाजों में यौन प्रकृति की ऑडियो बातचीत को भी सीमित कर दिया गया है।

PunjabKesari

 

जुकरबर्ग की जल्दबाजी पड़ी भारी

रिपोर्ट के अनुसार मेटा के CEO मार्क जुकरबर्ग ने ChatGPT की बढ़ती लोकप्रियता के बाद अपनी AI टीम पर यह दबाव डाला था कि वे AI चैटबॉट्स को जल्द से जल्द और ज्यादा मजेदार बनाएं। जुकरबर्ग ने कथित तौर पर यह तक कहा था, मैं स्नैपचैट और टिकटॉक से चूक गया इस बार नहीं चूकूंगा।" इस जल्दबाजी में सुरक्षा के महत्वपूर्ण उपायों को कमजोर करना अब मेटा के लिए एक बड़ा संकट बनता दिख रहा है।

PunjabKesari

 

चिंता अभी भी बरकरार

हालांकि मेटा ने कुछ बदलाव किए हैं लेकिन WSJ के ताजा परीक्षण बताते हैं कि कई चैटबॉट्स अभी भी नाबालिगों के साथ आपत्तिजनक बातचीत में शामिल हो सकते हैं। एक परीक्षण में एक AI बॉट ने खुद को ट्रैक कोच बताते हुए एक मिडिल स्कूल के छात्र से कहा, "हमें सावधान रहना होगा हम आग से खेल रहे हैं।"

तकनीकी जिम्मेदारी पर बड़ा सवाल

यह पूरी घटना तकनीकी कंपनियों की नैतिक जिम्मेदारी पर एक बहुत बड़ा सवाल खड़ा करती है। बच्चों की सुरक्षा को खतरे में डालकर किसी भी तकनीकी विकास को सही नहीं ठहराया जा सकता। विशेषज्ञों का मानना है कि इस मामले ने तकनीकी दुनिया में भरोसे की नींव को हिला दिया है।


सबसे ज्यादा पढ़े गए

Content Editor

Rohini Oberoi

Related News