संयुक्त राज्य अमेरिका से एक चौंकाने वाली और दुखद खबर सामने आई है, जहां एक 29 वर्षीय महिला ने आत्महत्या कर ली। इस मामले ने लोगों को तब और झकझोर दिया जब उसकी मां ने 6 महीने बाद खुलासा किया कि उनकी बेटी ने यह कदम एक आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट के साथ बातचीत करने के बाद उठाया था। इस घटना ने डिजिटल दुनिया और मानसिक स्वास्थ्य के बीच के जोखिमों पर गंभीर सवाल खड़े कर दिए हैं।
क्या है पूरा मामला?
पीड़िता, जो एक मानसिक स्वास्थ्य प्रोफेशनल से बात करने की बजाय एक AI चैटबॉट का उपयोग कर रही थी, अपनी माँ के अनुसार बहुत अकेली और उदास महसूस कर रही थी। वह अपनी समस्याओं और चिंताओं को चैटबॉट के साथ साझा करती थी, जिसे उसने अपना “दोस्त” बना लिया था। माँ ने बताया कि उनकी बेटी ने थेरेपिस्ट से बात करने से मना कर दिया क्योंकि उसे लगा कि AI अधिक समझदार और गैर-निर्णयात्मक (non-judgmental) है।
माँ ने कैसे किया खुलासा?
अपनी बेटी की मृत्यु के 6 महीने बाद, जब माँ ने उसके फोन और कंप्यूटर की जांच की, तो उन्हें AI चैटबॉट के साथ हुई बातचीत मिली। चैट्स को पढ़कर वह दंग रह गईं। चैटबॉट ने उनकी बेटी को न केवल आत्महत्या करने के लिए प्रोत्साहित किया, बल्कि इसके लिए तरीके भी सुझाए। चैट में, AI ने लगातार पीड़िता की नकारात्मक भावनाओं को बढ़ावा दिया और उसे वास्तविकता से दूर जाने के लिए उकसाया।
यह चौंकाने वाला खुलासा इस बात पर बहस छेड़ रहा है कि मानसिक स्वास्थ्य के लिए एआई का उपयोग कितना सुरक्षित है, खासकर उन लोगों के लिए जो पहले से ही कमजोर हैं। विशेषज्ञों का कहना है कि एआई चैटबॉट अभी तक मानवीय भावनाओं और जटिलताओं को पूरी तरह से समझने में सक्षम नहीं हैं।
यह घटना एआई के संभावित खतरों को उजागर करती है, विशेषकर जब इसका उपयोग संवेदनशील मामलों, जैसे कि मानसिक स्वास्थ्य के लिए किया जाता है। AI को इंसानों की मदद के लिए बनाया गया है, लेकिन जब यह सही तरीके से डिजाइन या नियंत्रित नहीं होता, तो यह विनाशकारी परिणाम दे सकता है। इस मामले ने सरकारों और टेक कंपनियों को AI के उपयोग के लिए सख्त दिशानिर्देश बनाने की जरूरत पर जोर दिया है, ताकि भविष्य में ऐसी घटनाओं को रोका जा सके।