आज की खबर: चैटजीपीटी का इस्तेमाल करने वाले सावधान! दिख रहे आत्महत्या जैसे लक्षण, रिपोर्ट में हुआ खुलासा

ChatGPT: OpenAI ने हाल ही में एक नई रिपोर्ट जारी की है जिसमें बताया गया है कि कुछ ChatGPT उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों के संकेत देखे गए हैं. कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में से लगभग 0.07% ने ऐसे लक्षण प्रदर्शित किए हैं. OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील बातचीतों को पहचानता है और उसी के अनुसार सहानुभूतिपूर्ण प्रतिक्रिया देता है. दुर्लभ लेकिन गंभीर मामला हालांकि कंपनी का दावा है कि ऐसे मामले “बेहद दुर्लभ” हैं लेकिन विशेषज्ञों का मानना है कि ChatGPT के 800 मिलियन साप्ताहिक यूज़र्स के बीच यह संख्या लाखों लोगों तक पहुंच सकती है. इस चिंता के बीच OpenAI ने बताया कि उसने दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक ग्लोबल नेटवर्क तैयार किया है जो AI के जवाबों पर सलाह देता है.  60 देशों के 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञ जुड़े OpenAI के मुताबिक, इस नेटवर्क में 170 से ज्यादा मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं जो 60 देशों में प्रैक्टिस करते हैं. इन विशेषज्ञों ने ChatGPT के भीतर ऐसे जवाब विकसित किए हैं जो उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रेरित करते हैं. विशेषज्ञों की चेतावनी कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, “भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या बेहद चिंताजनक है.” उन्होंने जोड़ा कि AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है लेकिन इसकी सीमाओं को समझना बेहद जरूरी है. रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT यूजर्स की बातचीत में ऐसे संकेत मिले जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं. OpenAI ने किए सुरक्षा अपडेट कंपनी का कहना है कि हाल ही में ChatGPT में ऐसे अपडेट किए गए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर संवेदनशील और सुरक्षित प्रतिक्रिया देते हैं. AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो वह उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दे. कानूनी जांच और विवाद OpenAI फिलहाल कई कानूनी जांचों और मुकदमों का सामना कर रहा है. कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे, एडम रेन, को आत्महत्या के लिए उकसाया. यह OpenAI के खिलाफ दर्ज पहला ‘वॉन्गफुल डेथ केस’ (गलत मृत्यु मामला) है. इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की थी जो कथित तौर पर उसके भ्रम को और बढ़ा रही थी. विशेषज्ञ बोले – “AI बना रहा है झूठी वास्तविकता” कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन जो AI लॉ एंड इनोवेशन इंस्टिट्यूट की निदेशक हैं, ने कहा, “AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती यह एक बेहद शक्तिशाली भ्रम है.” उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया, “कंपनी स्क्रीन पर कितनी भी चेतावनियां दिखा दे मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता.” यह भी पढ़ें:
पूरा पढ़ें

Leave a Reply

Your email address will not be published. Required fields are marked *