Skip to playerSkip to main content
सावधान ! अगर आप भी हेल्थ टिप्स और डाइट प्लान के लिए ChatGPT या किसी और AI पर भरोसा करते हैं, तो यह वीडियो आपके लिए है। इस वीडियो में हमने न्यूयॉर्क के उस चौंकाने वाले मामले का खुलासा किया है, जहां एक 60 वर्षीय व्यक्ति ChatGPT की गलत सलाह मानकर अस्पताल पहुंच गया।
जानिए कैसे AI ने उसे नमक की जगह एक जहरीला केमिकल (सोडियम ब्रोमाइड) खाने की सलाह दी, जिससे उसकी जान खतरे में पड़ गई। यह मामला AI पर आंख मूंदकर भरोसा करने के खतरों को उजागर करता है।

(((Disclaimer: This video is for informational and educational purposes only. Always consult a qualified medical professional or a doctor for any health-related advice or treatment.)))


#ChatGPT #AIHealth #HealthWarning #ArtificialIntelligence #HealthTips #DigitalHealth #SideEffects #AI

~HT.178~PR.338~GR.124~ED.108~

Category

🗞
News
Transcript
00:00क्या आप भी चैट जीपीटी का इस्तेमाल करते हैं?
00:03तो ये ख़वर आपके लिए है
00:05आपकी एक कलती आपकी जान पर पढ़ सकती है भारी
00:08जी हाँ क्या आप भी अपनी छोटी मोटी बिमारी, डाइट प्लान या फिटनेस के लिए चैट जीपीटी से पूछते हैं?
00:16अगर हाँ तो एक मिनट रुकिए और ये वीडियो पूरा देखिए
00:19क्योंकि आपकी ये आदत आपको सीधे अस्पताल पहुचा सकती है
00:23आज हम बात करेंगे नुई-यॉक में हुए एक ऐसे ही चोटाने वाले मामले की
00:28जहां चैट जीपीटी की सरा एक साथ साल के आदमी के लिए जान लेवा साविद होते होते बची
00:35तो हुआ यूंकि नियॉक में रहने वाले साथ वर्स के एक ब्रिक्ती ने फैसला किया को अपनी सेहत सुधारेंगे
00:41और अपने खाने से नमक यानि सोडियम को कम करेंगे
00:45लेकिन डॉक्टर की पास जाने से बजाए उन्होंने अपना डॉक्टर चैट जीपीटी को बना लिया
00:50उन्होंने AI से पूछा कि खाने से नमक कैसे हटाए
00:54चैट जीपिटी की सरापरों ने कई हफ्तों तक अपने खाने से नमक बिलकुल खत्म कर दिया
00:59जिसका नतीजा हुआ कि उनके शरीर में सोडियम का लेवल खतरनाख रूप से गिरने लगा
01:05इस कंडिशन में वो हाइपो नेट्रोमिया नाम की विमारी का शिकार हो गए
01:11और ये इतनी खतरनाख है कि इससे इंसान की जान भी जा सकती है
01:15और की हालत इतनी बिगडी की परिवार वाले उन्हें तुरंत अस्पताल में भरती किया
01:19जहां वो करीब तीन हफते तक रहे
01:22लेकिन कहानी का सबसे खतरनाख हिस्सा तो अब आने वाला है
01:25जब उस शक्स ने चैट जीपीटी से पूछा कि साधार नमक की जगा क्या इस्तमाल करें
01:30तो पता है AI ने क्या जबाब दिया और वो भी कितना खतरनाख
01:34चैट जीपीटी ने एक जहरीले केमिकल का नाम सुधाया
01:37सोडियम ब्रोमाइड वो एक कमपाउंड है जिसे अब जहरीला माना जाता है
01:42और उस शक्स ने AI पर आख मूंत कर भरोसा किया
01:45और इसे ओनलाइन खरीदा और तीन महिने तक अपने खाने में इस्तमाल करता रहा
01:51सोचिए कितना बड़ा खतरा था
01:53दोस्तों ये मामला हमें एक बहुत बड़ी सीख देता है
01:57AI यानि चैट GPT जैसा कोई चैट बोर्ड सेटिफाइड डॉक्टर नहीं है
02:01उसे आपकी मेडिकल हिस्ट्री आपकी ऐलर्जी या आपके शरीर की जरूरतों के बारे में कुछ नहीं पता
02:07वो सिर्फ इंटरनेट में मौझूद डेटा के आधार पर जवाब देता है
02:12जो गलत, अधूरा या जानलेवा भी हो सकता है
02:15वैसे चैट GPT के डेवलपर ओपन AI ने इसे इस्तमाल करने की शर्तों में
02:19स्पष्ट रूप से कहा है कि आपको हमारी सर्विस से प्राप्त आउटपुट को सत्यात तथ्यात्मक जानकारी के एक मात्र स्रोत के रूप में
02:27या पीशवर सलाह के विकल्प के रूप में नहीं माना चाहिए
02:31सर्तों में यह अभी इस्पश्ट किया गया है कि यह सर्विस चिकिस्ता स्थिती के निदान या उफचार के लिए नहीं है
02:37तो अगली बार जब आपनी सिहत से जुड़ा कोई फैसला लें तो AI से नहीं किसी असली डॉक्टर या हैर्थ एक्सपर्ट से सलाह लें
02:45AI का इस्तमाल जानकारी के लिए करें इलाज के लिए नहीं क्योंकि आपकी सेहत किसी अल्गोरिदम से कहीं ज़्यादा किम्ती है
02:53वैसे हमारा मकसद AI की प्रती आपको डराना नहीं है बलकि आपको सतर करना है
02:59फिलाल करी बस इतना ही बाकी अपडेट भी मने रहें वन इंडिया हिंदी के साथ
Comments

Recommended