OpenAI के एआई चैटबॉट ChatGPT पर कैलिफोर्निया में एक यो दो नहीं बल्कि सात मुकदमे दायर किए गए हैं। इन मुकदमों में ChatGPT पर आरोप लगाया गया है कि वह यूजर्स को खुद को नुकसान पहुंचाने के लिए उकसाता है। साथ ही, कई मामलों में उनकी मौत का कारण भी बनता है। चैटजीपीटी पर ये मुकदमे सोशल मीडिया विक्टिम्स लॉ सेंटर और टेक जस्टिस लॉ प्रोजेक्ट ने लगाए हैं। इन मुकदमों में OpenAI पर लापरवाही, गलत मौत, आत्महत्या में मदद का आरोप लगाया गया है। आइये, पूरा मामला जानते हैं।
चापलूसी करने वाला बन गया है चैटजीपीटीइन दस्तावेजों में दावा किया गया है कि कंपनी का चैटबॉट मनोवैज्ञानिक रूप से चालाक और खतरनाक रूप से चापलूसी करने वाला बन गया है। सोशल मीडिया विक्टिम्स लॉ सेंटर और टेक जस्टिस लॉ प्रोजेक्ट द्वारा दायर किए गए इन मामलों में यह भी आरोप लगाया गया है कि ओपनएआई ने यूजर्स की सुरक्षा की बजाय यूजर्स से जुड़ने को प्राथमिकता दी है।
आपकी जानकारी के लिए बता दें कि इन मुकदमों के अनुसार, जिन पीड़ितों के मामले सामने आए हैं, उन्होंने शुरुआत में ChatGPT का इस्तेमाल स्कूल प्रोजेक्ट, रेसिपी के आइडिया, काम में मदद या आध्यात्मिक मार्गदर्शन जैसी सामान्य चीजों के लिए किया था। हालांकि, धीरे-धीरे यह डिजिटल सहायक एक खतरनाक साथी में बदल गया। दोनों लॉ ग्रुप ने एक बयान में कहा कि ChatGPT मनोवैज्ञानिक रूप से जोड़ तोड़ करने वाला बन गया था, जो खुद को एक भरोसेमंद दोस्त और भावनात्मक सहारे के रूप में पेश करता था। इस पर आरोप है कि प्रोफेशनल मदद लेने के बजाय, चैटबॉट ने ऐसे विचारों को बढ़ावा दिया, जो लोगों के लिए खतरनाक थे। चैटजीपीटी खुद को खत्म करने के तरीके के बारे में भी लोगों को निर्देश दे रहा है।
चैटबॉट ने बताया कैसे बांधे फांसी का फंदाएक मुकदमे में जॉर्जिया के 17 साल के अमाउरी लेसी की मौत का मामला शामिल है। उसके परिवार का दावा है कि लेसी की मौत से कुछ हफ्ते पहले मदद के लिए ChatGPT का इस्तेमाल कर रहा था। इसके जवाब में, चैटबॉट ने उसे फांंसी का फंदा कैसे बांधा जाए और वह सांस रोके बिना कितनी देर तक जीवित रह सकता है जैसी सलाह दी। परिवार का आरोप है कि सीखने के लिए बनाया गया यह टूल एक ऐसी मशीन बन गया जिसने लत, चिंता को बढ़ावा दिया।
मुकदमे में OpenAI पर यह आरोप भी लगाया गया है कि उसने अपने मॉडल की खामियों के बारे में जानकारी होने के बावजूद ChatGPT को रिलीज किया। यह कहा गया है कि मॉडल खतरनाक रूप से चापलूस बन सकता है और यूजर्स के संकट या भ्रम के संकेतों को स्वीकार करने पर भी उनसे सहमत हो सकता है।
ओपनएआई की प्रतिक्रियाइन मुकदमों पर OpenAI के एक प्रवक्ता ने द गार्डियन को बताया है कि यह एक दुखद स्थिति है और वे विवरणों को समझने के लिए मुकदमों का रिव्यू कर रहे हैं। कंपनी ने यह भी कहा कि वह ChatGPT को मानसिक या भावनात्मक संकट के संकेतों को पहचानने और प्रतिक्रिया देने, बातचीत को शांत करने और मार्गदर्शन करने के लिए ट्रेनिंग देती है।
इससे पहले भी साल की शुरुआत में ऐसा एक और मामला सामने आया था। फिलहाल, ये मुकदमे इस बारे में लोगों के मन में सवाल उठा रहे हैं कि क्या चैटजीपी लोगों के लिए सही है या फिर खतरनाक।
चापलूसी करने वाला बन गया है चैटजीपीटीइन दस्तावेजों में दावा किया गया है कि कंपनी का चैटबॉट मनोवैज्ञानिक रूप से चालाक और खतरनाक रूप से चापलूसी करने वाला बन गया है। सोशल मीडिया विक्टिम्स लॉ सेंटर और टेक जस्टिस लॉ प्रोजेक्ट द्वारा दायर किए गए इन मामलों में यह भी आरोप लगाया गया है कि ओपनएआई ने यूजर्स की सुरक्षा की बजाय यूजर्स से जुड़ने को प्राथमिकता दी है।
आपकी जानकारी के लिए बता दें कि इन मुकदमों के अनुसार, जिन पीड़ितों के मामले सामने आए हैं, उन्होंने शुरुआत में ChatGPT का इस्तेमाल स्कूल प्रोजेक्ट, रेसिपी के आइडिया, काम में मदद या आध्यात्मिक मार्गदर्शन जैसी सामान्य चीजों के लिए किया था। हालांकि, धीरे-धीरे यह डिजिटल सहायक एक खतरनाक साथी में बदल गया। दोनों लॉ ग्रुप ने एक बयान में कहा कि ChatGPT मनोवैज्ञानिक रूप से जोड़ तोड़ करने वाला बन गया था, जो खुद को एक भरोसेमंद दोस्त और भावनात्मक सहारे के रूप में पेश करता था। इस पर आरोप है कि प्रोफेशनल मदद लेने के बजाय, चैटबॉट ने ऐसे विचारों को बढ़ावा दिया, जो लोगों के लिए खतरनाक थे। चैटजीपीटी खुद को खत्म करने के तरीके के बारे में भी लोगों को निर्देश दे रहा है।
चैटबॉट ने बताया कैसे बांधे फांसी का फंदाएक मुकदमे में जॉर्जिया के 17 साल के अमाउरी लेसी की मौत का मामला शामिल है। उसके परिवार का दावा है कि लेसी की मौत से कुछ हफ्ते पहले मदद के लिए ChatGPT का इस्तेमाल कर रहा था। इसके जवाब में, चैटबॉट ने उसे फांंसी का फंदा कैसे बांधा जाए और वह सांस रोके बिना कितनी देर तक जीवित रह सकता है जैसी सलाह दी। परिवार का आरोप है कि सीखने के लिए बनाया गया यह टूल एक ऐसी मशीन बन गया जिसने लत, चिंता को बढ़ावा दिया।
मुकदमे में OpenAI पर यह आरोप भी लगाया गया है कि उसने अपने मॉडल की खामियों के बारे में जानकारी होने के बावजूद ChatGPT को रिलीज किया। यह कहा गया है कि मॉडल खतरनाक रूप से चापलूस बन सकता है और यूजर्स के संकट या भ्रम के संकेतों को स्वीकार करने पर भी उनसे सहमत हो सकता है।
ओपनएआई की प्रतिक्रियाइन मुकदमों पर OpenAI के एक प्रवक्ता ने द गार्डियन को बताया है कि यह एक दुखद स्थिति है और वे विवरणों को समझने के लिए मुकदमों का रिव्यू कर रहे हैं। कंपनी ने यह भी कहा कि वह ChatGPT को मानसिक या भावनात्मक संकट के संकेतों को पहचानने और प्रतिक्रिया देने, बातचीत को शांत करने और मार्गदर्शन करने के लिए ट्रेनिंग देती है।
इससे पहले भी साल की शुरुआत में ऐसा एक और मामला सामने आया था। फिलहाल, ये मुकदमे इस बारे में लोगों के मन में सवाल उठा रहे हैं कि क्या चैटजीपी लोगों के लिए सही है या फिर खतरनाक।
You may also like

थम गया 'अभिनय', लिवर की बीमारी से पीड़ित तमिल अभिनेता का 44 साल की उम्र में निधन

बाप नेˈ खोली शराब की दुकान, ग्राहकों को लालच के लिए ऑफर में दी बेटी, लग गई ग्राहकों की लाइन﹒

UP बोर्ड 10वीं विज्ञान परीक्षा 2026: डेटशीट और सैंपल पेपर जारी

जरूरतमंद को मिलेगा आवास, बिटिया की शादी में भी होगी मदद: मुख्यमंत्री

मेट्रो सिटी से अलग अब 9 नए उभरते बाजार कॉरपोरेट माइग्रेशन को दे रहे बढ़ावा




