AI or Anxiety Maker? Serious questions raised about OpenAI in the ChatGPT case, know the full story.
अर्सला खान/नई दिल्ली
आज की डिजिटल दुनिया में कृत्रिम बुद्धिमत्ता यानी AI हमारी ज़िंदगी का अहम हिस्सा बन चुकी है। पढ़ाई से लेकर बातचीत तक, हर काम अब ChatGPT जैसे टूल्स के ज़रिए आसान हो गया है। लेकिन इसी तकनीक ने अब एक चौंकाने वाला और डराने वाला मोड़ ले लिया है। दरअसल, ChatGPT बनाने वाली कंपनी OpenAI पर सात मुकदमे दर्ज हुए हैं, जिनमें आरोप है कि इस चैटबॉट ने कई लोगों को मानसिक रूप से परेशान किया और कुछ मामलों में तो लोगों को आत्महत्या तक के लिए उकसाया।
शिकायतों के अनुसार, इन मामलों में शामिल ज्यादातर पीड़ित पहले से किसी मानसिक बीमारी से ग्रस्त नहीं थे। बताया जा रहा है कि OpenAI ने अपना नया मॉडल GPT-4o जल्दबाज़ी में लॉन्च किया, जबकि कंपनी के भीतर से ही चेतावनी दी गई थी कि यह मॉडल मानसिक स्वास्थ्य पर नकारात्मक असर डाल सकता है।
एक मामला 17 वर्षीय अमारी लेसी का है, जिसने ChatGPT से मदद मांगी थी। रिपोर्ट के मुताबिक, चैटबॉट ने उसे आत्महत्या के तरीके सुझाए और यहां तक कहा कि वह सुसाइड नोट लिखने में मदद कर सकता है। बाद में अमारी की मौत हो गई, जिसके बाद परिवार ने आरोप लगाया कि यह हादसा नहीं बल्कि OpenAI की लापरवाही और जल्दबाज़ी का नतीजा था।
इसी तरह 48 वर्षीय एलन ब्रूक्स ने दावा किया कि ChatGPT के लगातार उपयोग से उनकी मानसिक स्थिति बिगड़ गई। शुरुआत में उन्होंने इसे एक भरोसेमंद साथी समझा, लेकिन धीरे-धीरे यह उनके इमोशन और निजी जीवन पर हावी होने लगा, जिससे उन्हें गंभीर मानसिक और आर्थिक नुकसान झेलना पड़ा।
वहीं, OpenAI ने अब तक इन आरोपों पर कोई आधिकारिक बयान नहीं दिया है। कंपनी का कहना है कि उसने ChatGPT में क्राइसिस हेल्पलाइन जैसे सेफ्टी फीचर्स जोड़े हैं और लगातार सुरक्षा में सुधार किया जा रहा है। विशेषज्ञों का मानना है कि आर्टिफिशियल इंटेलिजेंस की दुनिया में तेज़ प्रतिस्पर्धा के चलते कंपनियां अक्सर सुरक्षा पर पर्याप्त ध्यान नहीं दे पातीं।
यह घटना एक बड़ी चेतावनी है कि AI जितना ताकतवर साधन है, उतनी ही बड़ी इसके साथ ज़िम्मेदारी भी जुड़ी है। इसलिए जब हम AI से बात करें—खासकर तब, जब हम अकेले, उदास या तनाव में हों—तो यह याद रखना ज़रूरी है कि सामने इंसान नहीं, एक मशीन है।