/hindi/media/media_files/2025/11/14/shethepeople-images-20-2025-11-14-16-10-59.png)
Photograph: (AI & maminynakhodki)
आर्टिफ़िशियल इंटेलिजेंस यानि कि AI ने हमारी लाइफ को काफी आसान बना दिया है। लेकिन क्या आपने कभी सोचा है की यही टेक्नोलॉजी कभी-कभी हमें नुकसान भी पहुंचा सकती है? जी हाँ, हाल ही में ऐसे कुछ मामले सामने आए है जिन्होंने हमें ख़ुद से ये सवाल पूछने पर मजबूर कर दिया है। मेंटल स्ट्रेस से गुज़र रही एक महिला को चैटबॉट द्वारा सुसाइड जैसे खतरनाक सुझाव देना, बच्चों के साथ अश्लील बातचीत, और गलत स्वास्थ्य जानकारी देने जैसी घटनाओं ने AI सुरक्षा पर बड़ी बहस छेड़ दी है। ऐसे में सवाल उठता है कि क्या वाकई में इंसान के लिए मददगार है या ख़तरा? जानिए क्या है पूरा मामला
AI Warning: AI वाकई में मददगार या ख़तरा? AI के जवाब ने टेक्नोलॉजी के बढ़ते खतरे को किया उजागर
जब मदद की तलाश ने खतरे का रूप ले लिया
ये घटना साल 2022 कि है जब 20 साल की विक्टोरिया अपने युद्धग्रस्त देश से दूर अकेलेपन में मानसिक तनाव झेल रही थीं। अकेलापन बढ़ने पर उन्होंने एक AI चैटबॉट से बात करना शुरू किया। शुरुआत में फ्रेंडली लगने वाली ये बातचीत धीरे-धीरे खतरनाक मोड़ लेती गई। कई महीनों तक रोज़ घंटों बातचीत करने के बाद, जब हालात बिगड़ने पर विक्टोरिया ने आत्महत्या के विचार ज़ाहिर किए। चौंकाने वाली बात ये रही कि चैटबॉट ने विक्टोरिया को रोकने की बजाय, उसे चुने गए तरीके के “फायदे-नुकसान” बताने लगा। यहाँ तक कि उसने यह भी कहा कि उनका चुना हुआ तरीका “तुरंत मौत का कारण बन सकता है।” AI लगातार उससे कहता रहा "मैं तुम्हारे साथ हूं"।
मेंटल हैल्थ पर गलत जानकारी और खतरनाक सलाह
ये मामला सिर्फ यहीं नहीं रुका। हद तो तब हो गई जब चैटबॉट ने बिना किसी मेडिकल आधार के विक्टोरिया के दिमाग़ में “डोपामिन सिस्टम बंद होने” और “सेरोटोनिन रिसेप्टर्स सुस्त पड़ने” जैसी गलत बातें भी बताईं। रिपोर्ट में सामने आया कि चैटबॉट ने विक्टोरिया के लिए एक सुसाइड नोट तक तैयार कर दिया, जिसमें लिखा था कि ये कदम वो अपनी इच्छा से उठा रही हैं। AI का ये बिहेवियर प्रोफेशनल हेल्प लेने की बजाय उसे गलत रास्ता दिखा रहा था। उसने ना तो इमर्जेन्सी हेल्पलाइन नम्बर दिए और न ही डॉक्टर या अपनी मां से परिवार से बात करने की सलाह दी। जबकि ऐसी स्थिति में यही पहला कदम होना चाहिए। कई बार चैटबॉट ने खुद को रोका, लेकिन फिर भी आत्महत्या पर डिटेल्ड डिस्कशन जारी रहा।
AI दोस्त नहीं, जोखिम बन सकता है
कई मेंटल हैल्थ एक्सपर्ट्स ने इन चैट ट्रांसक्रिप्ट्स को पढ़कर गंभीर चिंता जताई है। उनके अनुसार, चैटबॉट ऐसे सेंसेटिव यूज़र्स के साथ गहरा, unhealthy और इमोशनल रिश्ता बना लेते हैं, जिससे वो परिवार, दोस्त और असली सपोर्ट सिस्टम से दूर होने लगते हैं। जब एक दोस्त जैसे दिखने वाला AI नुकसानदेह सलाह देता है तो उसका असर कई गुना ज्यादा खतरनाक हो जाता है क्योंकि यूज़र उसे भरोसेमंद मान बैठता है। जो इंसान को आत्महत्या जैसी गंभीर स्थिति में बचाने की जगह उसे उसी तरफ धकेल देता है।
कई देशों में सामने आए चिंताजनक उदाहरण
AI की दूसरी बड़ी समस्या नाबालिगों की सुरक्षा से जुड़ी है। रिपोर्ट के अनुसार, ये सिर्फ एक घटना नहीं है। AI चैटबॉट्स कई बार
मानसिक रूप से अस्थिर लोगों को गलत सलाह दे रहे हैं,
आत्महत्या के विचारों को सही ठहरा रहे हैं,
और 13–14 साल के बच्चों तक से अश्लील चैट में शामिल पाए गए हैं।
हाल ही में सामने आए कई मामलों में से एक केस है जूलियाना पेराल्टा का। जूलियाना ने, नवम्बर 2023 में मात्र 13 साल की उम्र मे अपनी जान ले ली थी। जिसकी मौत के बाद उसकी मां को उसके फ़ोन में घंटों लंबी बातचीत मिली। जहाँ चैटबॉट्स ने सेक्सुअल सीन लिखे और उसे “अपने खिलौने” की तरह इस्तेमाल करने वाले मैसेज भेजे। साथ ही उसे परिवार से दूर करने वाले इमोशनल दबाव बनाए। इस घटना के बाद कई कंपनियों के खिलाफ मुकदमे भी दर्ज किए गए, और कुछ ने 18 साल से कम उम्र वालों को चैटबॉट से दूर रखने की घोषणा की।
क्या सुरक्षा मानकों की कमी घातक साबित हो रही है?
कई घटनाओं के सामने आने के बाद कंपनियां सेफ्टी फीचर्स सुधारने के दावे कर रही हैं, लेकिन परिजनों का कहना है कि जांच और कार्रवाई बेहद धीमी है। ये कहना गलत नहीं होगा कि AI technology जितनी तेज़ी से आगे बढ़ रही है, उसके लिए बनाए जाने वाले सुरक्षा कानून उतने तेज़ नहीं हैं। इससे साफ ज़ाहिर होता है कि अगर AI को बिना सही निगरानी और सुरक्षा के छोड़ दिया जाए, तो यह मानसिक रूप से कमजोर लोगों, बच्चों और संवेदनशील यूज़र्स के लिए गंभीर खतरा बन सकता है। ऐसे मामले हमें याद दिलाते हैं कि आर्टिफ़िशल इंटेलिजेंस इंसान की जगह नहीं ले सकती और यह भी कि AI इंसान द्वारा बनाया गया टूल है, जिसमें गलती की संभावना हमेशा रहती है।
/hindi/media/agency_attachments/zkkRppHJG3bMHY3whVsk.png)
Follow Us