ChatGPT की सलाह मानना पड़ा भारी, शख्स पहुंचा अस्पताल...3 हफ्ते चला इलाज
punjabkesari.in Sunday, Aug 10, 2025 - 05:47 PM (IST)

नेशनल डेस्क: विशेषज्ञों की चेतावनी सच साबित हुई है। न्यूयॉर्क में एक 60 साल के शख्स को ChatGPT की गलत सलाह मानना भारी पड़ गया, जिसकी वजह से उन्हें तीन हफ़्तों तक अस्पताल में भर्ती रहना पड़ा। यह घटना इस बात का ताज़ा उदाहरण है कि स्वास्थ्य से जुड़ी सलाह के लिए अभी भी AI पर भरोसा करना कितना खतरनाक हो सकता है।
क्या थी ChatGPT की गलत सलाह?
टाइम्स ऑफ इंडिया की एक रिपोर्ट के अनुसार, उस शख्स ने ChatGPT से पूछा कि खाने में से नमक (सोडियम क्लोराइड) को कैसे हटाया जाए। ChatGPT ने उसे सोडियम ब्रोमाइड का इस्तेमाल करने की सलाह दे दी। सोडियम ब्रोमाइड, जिसे अब बड़ी मात्रा में जहरीला माना जाता है, उसे शख्स ने ऑनलाइन खरीदा और तीन महीने तक इसका इस्तेमाल किया।
बिगड़ी सेहत, पहुंचा अस्पताल
बिना किसी डॉक्टर की सलाह लिए, शख्स ने तीन महीने तक सोडियम ब्रोमाइड का सेवन किया। इसकी वजह से उसे भ्रम, अत्यधिक प्यास और मानसिक उलझन जैसी गंभीर समस्याएं होने लगीं। उसकी हालत इतनी बिगड़ गई कि अस्पताल में भर्ती होने पर उसने पानी पीने से भी मना कर दिया। डॉक्टरों ने जाँच में पाया कि वह ब्रोमाइड टॉक्सिसिटी का शिकार हो गया है।
लगभग तीन हफ्ते के इलाज के बाद, जब उसके शरीर में सोडियम और क्लोराइड का स्तर सामान्य हुआ, तब उसे अस्पताल से छुट्टी दी गई।
AI से मेडिकल सलाह लेना है खतरनाक
अमेरिकन कॉलेज ऑफ फिजिशियन्स की पत्रिका में प्रकाशित इस मामले ने यह साफ़ कर दिया है कि स्वास्थ्य और पोषण से जुड़े मामलों में बिना किसी विशेषज्ञ डॉक्टर की सलाह के AI पर भरोसा करना जानलेवा हो सकता है। यह घटना इस बात की पुष्ट करती है कि AI अभी डॉक्टरों की जगह लेने के लिए तैयार नहीं है।