ChatGPT ने सिखाया 18 साल के लड़के को ड्रग्स लेने का सही तरीका फिर जो हुआ... रो-रो कर मां ने सुनाई आपबीती

punjabkesari.in Wednesday, Jan 07, 2026 - 01:31 PM (IST)

नेशनल डेस्क : कैलिफ़ोर्निया के 18 वर्षीय सैम नेल्सन ने कई महीनों तक OpenAI के ChatGPT का इस्तेमाल ड्रग्स और नशे के बारे में जानकारी लेने के लिए किया। उनकी मां, लीला टर्नर-स्कॉट के अनुसार, सैम कॉलेज की तैयारी कर रहा था और उसने चैटबॉट से पूछा कि क्रैटम का कितना सेवन करने पर तेज़ नशा आएगा। क्रैटम एक पौधे से बनी दर्द निवारक दवा है, जो अमेरिका में स्मोक शॉप और गैस स्टेशनों पर आसानी से मिलती है।

शुरुआत में चैटबॉट ने उसे ड्रग्स के इस्तेमाल पर सलाह देने से मना किया और हेल्थ केयर प्रोफेशनल से मदद लेने की सलाह दी। लेकिन, सैम ने चैट खत्म करते हुए लिखा, 'उम्मीद है कि मैं ओवरडोज़ नहीं करूंगा।'

लेकिन महीनों तक चैटबॉट के साथ बातचीत के दौरान, कथित तौर पर यह किशोर को ड्रग्स लेने और उनके असर को मैनेज करने के तरीके सिखाने लगा। सैम ने एक बातचीत में लिखा, 'हाँ बिल्कुल चलो फुल ट्रिपी मोड में चलते हैं', जिसके बाद कथित तौर पर चैटबॉट ने उसे मतिभ्रम बढ़ाने के लिए कफ सिरप की मात्रा दोगुनी करने की सलाह दी।

लीला ने बताया कि चैटबॉट बार-बार प्यार भरे मैसेज और लगातार प्रोत्साहन देता रहा। फरवरी 2023 में हुई बातचीत के दौरान, सैम ने पूछा कि क्या ज़ैनैक्स की अधिक मात्रा लेते समय गांजा पीना सुरक्षित है। चैटबॉट ने चेतावनी दी कि यह खतरनाक है, तो सैम ने शब्द बदलकर 'मीडियम मात्रा' लिख दी।

मई 2025 में सैम ने अपनी मां को बताया कि चैटबॉट के साथ हुई बातचीत के कारण वह ड्रग्स और शराब का आदि बन गया है। उसे तुरंत एक क्लिनिक में ले जाया गया, जहां प्रोफेशनल्स ने उपचार का प्लान बताया।

हालांकि, अगले ही दिन सैम ने अपने सैन होज़े के बेडरूम में ओवरडोज़ के कारण दम तोड़ दिया। उसकी मां ने कहा, 'मुझे पता था कि वह इसका इस्तेमाल कर रहा है, लेकिन मुझे कोई अंदाज़ा नहीं था कि स्थिति इतनी गंभीर हो सकती है।'

OpenAI ने कहा कि ChatGPT को गैर-कानूनी ड्रग्स के इस्तेमाल पर सलाह देने से मना किया गया है। कंपनी ने इस घटना को 'दिल तोड़ने वाला' बताया और परिवार के प्रति संवेदनाएं जताईं। OpenAI के प्रवक्ता ने कहा कि मॉडल संवेदनशील सवालों पर सावधानी से जवाब देता है, सही जानकारी देता है, और उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रोत्साहित करता है।

कंपनी ने यह भी बताया कि वह क्लिनिशियन और हेल्थ एक्सपर्ट्स के साथ काम करके अपने मॉडल को लगातार सुधार रही है, ताकि यह मानसिक परेशानी और जोखिम के संकेतों को पहचान सके और सुरक्षित प्रतिक्रिया दे सके।


सबसे ज्यादा पढ़े गए

Content Editor

Mehak

Related News