ChatGPT की सलाह मानना पड़ा भारी, शख्स पहुंचा अस्पताल...3 हफ्ते चला इलाज

punjabkesari.in Sunday, Aug 10, 2025 - 05:47 PM (IST)

नेशनल डेस्क: विशेषज्ञों की चेतावनी सच साबित हुई है। न्यूयॉर्क में एक 60 साल के शख्स को ChatGPT की गलत सलाह मानना भारी पड़ गया, जिसकी वजह से उन्हें तीन हफ़्तों तक अस्पताल में भर्ती रहना पड़ा। यह घटना इस बात का ताज़ा उदाहरण है कि स्वास्थ्य से जुड़ी सलाह के लिए अभी भी AI पर भरोसा करना कितना खतरनाक हो सकता है।

क्या थी ChatGPT की गलत सलाह?
टाइम्स ऑफ इंडिया की एक रिपोर्ट के अनुसार, उस शख्स ने ChatGPT से पूछा कि खाने में से नमक (सोडियम क्लोराइड) को कैसे हटाया जाए। ChatGPT ने उसे सोडियम ब्रोमाइड का इस्तेमाल करने की सलाह दे दी। सोडियम ब्रोमाइड, जिसे अब बड़ी मात्रा में जहरीला माना जाता है, उसे शख्स ने ऑनलाइन खरीदा और तीन महीने तक इसका इस्तेमाल किया।

बिगड़ी सेहत, पहुंचा अस्पताल
बिना किसी डॉक्टर की सलाह लिए, शख्स ने तीन महीने तक सोडियम ब्रोमाइड का सेवन किया। इसकी वजह से उसे भ्रम, अत्यधिक प्यास और मानसिक उलझन जैसी गंभीर समस्याएं होने लगीं। उसकी हालत इतनी बिगड़ गई कि अस्पताल में भर्ती होने पर उसने पानी पीने से भी मना कर दिया। डॉक्टरों ने जाँच में पाया कि वह ब्रोमाइड टॉक्सिसिटी का शिकार हो गया है।

लगभग तीन हफ्ते के इलाज के बाद, जब उसके शरीर में सोडियम और क्लोराइड का स्तर सामान्य हुआ, तब उसे अस्पताल से छुट्टी दी गई।

AI से मेडिकल सलाह लेना है खतरनाक
अमेरिकन कॉलेज ऑफ फिजिशियन्स की पत्रिका में प्रकाशित इस मामले ने यह साफ़ कर दिया है कि स्वास्थ्य और पोषण से जुड़े मामलों में बिना किसी विशेषज्ञ डॉक्टर की सलाह के AI पर भरोसा करना जानलेवा हो सकता है। यह घटना इस बात की पुष्ट करती है कि AI अभी डॉक्टरों की जगह लेने के लिए तैयार नहीं है।


सबसे ज्यादा पढ़े गए

Content Editor

Mansa Devi

Related News