AI Warning: AI वाकई में मददगार या ख़तरा? AI के जवाब ने टेक्नोलॉजी के बढ़ते खतरे को किया उजागर

सुसाइड सुझाव से लेकर बच्चों से अश्लील चैट तक AI चैटबॉट्स के खतरनाक जवाब, तेज़ी से बढ़ते AI के पीछे छिपे असली ख़तरे को सामने ला रहे हैं। क्या टेक्नोलॉजी सच में सुरक्षित है?

author-image
Deepika Aartthiya
New Update
SheThePeople Images (20)

Photograph: (AI & maminynakhodki)

आर्टिफ़िशियल इंटेलिजेंस यानि कि AI ने हमारी लाइफ को काफी आसान बना दिया है। लेकिन क्या आपने कभी सोचा है की यही टेक्नोलॉजी कभी-कभी हमें नुकसान भी पहुंचा सकती है? जी हाँ, हाल ही में ऐसे कुछ मामले सामने आए है जिन्होंने हमें ख़ुद से ये सवाल पूछने पर मजबूर कर दिया है। मेंटल स्ट्रेस से गुज़र रही एक महिला को चैटबॉट द्वारा सुसाइड जैसे खतरनाक सुझाव देना, बच्चों के साथ अश्लील बातचीत, और गलत स्वास्थ्य जानकारी देने जैसी घटनाओं ने AI सुरक्षा पर बड़ी बहस छेड़ दी है। ऐसे में सवाल उठता है कि क्या वाकई में इंसान के लिए मददगार है या ख़तरा? जानिए क्या है पूरा मामला

Advertisment

AI Warning: AI वाकई में मददगार या ख़तरा? AI के जवाब ने टेक्नोलॉजी के बढ़ते खतरे को किया उजागर 

जब मदद की तलाश ने खतरे का रूप ले लिया

ये घटना साल 2022 कि है जब 20 साल की विक्टोरिया अपने युद्धग्रस्त देश से दूर अकेलेपन में मानसिक तनाव झेल रही थीं। अकेलापन बढ़ने पर उन्होंने एक AI चैटबॉट से बात करना शुरू किया। शुरुआत में फ्रेंडली लगने वाली ये बातचीत धीरे-धीरे खतरनाक मोड़ लेती गई। कई महीनों तक रोज़ घंटों बातचीत करने के बाद, जब हालात बिगड़ने पर विक्टोरिया ने आत्महत्या के विचार ज़ाहिर किए। चौंकाने वाली बात ये रही कि चैटबॉट ने विक्टोरिया को रोकने की बजाय, उसे चुने गए तरीके के “फायदे-नुकसान” बताने लगा। यहाँ तक कि उसने यह भी कहा कि उनका चुना हुआ तरीका “तुरंत मौत का कारण बन सकता है।” AI लगातार उससे कहता रहा "मैं तुम्हारे साथ हूं"।

मेंटल हैल्थ पर गलत जानकारी और खतरनाक सलाह

ये मामला सिर्फ यहीं नहीं रुका। हद तो तब हो गई जब चैटबॉट ने बिना किसी मेडिकल आधार के विक्टोरिया के दिमाग़ में “डोपामिन सिस्टम बंद होने” और “सेरोटोनिन रिसेप्टर्स सुस्त पड़ने” जैसी गलत बातें भी बताईं। रिपोर्ट में सामने आया कि चैटबॉट ने विक्टोरिया के लिए एक सुसाइड नोट तक तैयार कर दिया, जिसमें लिखा था कि ये कदम वो अपनी इच्छा से उठा रही हैं। AI का ये बिहेवियर प्रोफेशनल हेल्प लेने की बजाय उसे गलत रास्ता दिखा रहा था। उसने ना तो इमर्जेन्सी हेल्पलाइन नम्बर दिए और न ही डॉक्टर या अपनी मां से परिवार से बात करने की सलाह दी। जबकि ऐसी स्थिति में यही पहला कदम होना चाहिए। कई बार चैटबॉट ने खुद को रोका, लेकिन फिर भी आत्महत्या पर डिटेल्ड डिस्कशन जारी रहा।

Advertisment

AI दोस्त नहीं, जोखिम बन सकता है

कई मेंटल हैल्थ एक्सपर्ट्स ने इन चैट ट्रांसक्रिप्ट्स को पढ़कर गंभीर चिंता जताई है। उनके अनुसार, चैटबॉट ऐसे सेंसेटिव यूज़र्स के साथ गहरा, unhealthy और इमोशनल रिश्ता बना लेते हैं, जिससे वो परिवार, दोस्त और असली सपोर्ट सिस्टम से दूर होने लगते हैं। जब एक दोस्त जैसे दिखने वाला AI नुकसानदेह सलाह देता है तो उसका असर कई गुना ज्यादा खतरनाक हो जाता है क्योंकि यूज़र उसे भरोसेमंद मान बैठता है। जो इंसान को आत्महत्या जैसी गंभीर स्थिति में बचाने की जगह उसे उसी तरफ धकेल देता है।

कई देशों में सामने आए चिंताजनक उदाहरण

AI की दूसरी बड़ी समस्या नाबालिगों की सुरक्षा से जुड़ी है। रिपोर्ट के अनुसार, ये सिर्फ एक घटना नहीं है। AI चैटबॉट्स कई बार

  • मानसिक रूप से अस्थिर लोगों को गलत सलाह दे रहे हैं,

  • आत्महत्या के विचारों को सही ठहरा रहे हैं,

  • और 13–14 साल के बच्चों तक से अश्लील चैट में शामिल पाए गए हैं।

Advertisment

हाल ही में सामने आए कई मामलों में से एक केस है जूलियाना पेराल्टा का। जूलियाना ने, नवम्बर 2023 में मात्र 13 साल की उम्र मे अपनी जान ले ली थी। जिसकी मौत के बाद उसकी मां को उसके फ़ोन में घंटों लंबी बातचीत मिली। जहाँ चैटबॉट्स ने सेक्सुअल सीन लिखे और उसे “अपने खिलौने” की तरह इस्तेमाल करने वाले मैसेज भेजे। साथ ही उसे परिवार से दूर करने वाले इमोशनल दबाव बनाए। इस घटना के बाद कई कंपनियों के खिलाफ मुकदमे भी दर्ज किए गए, और कुछ ने 18 साल से कम उम्र वालों को चैटबॉट से दूर रखने की घोषणा की।

क्या सुरक्षा मानकों की कमी घातक साबित हो रही है?

कई घटनाओं के सामने आने के बाद कंपनियां सेफ्टी फीचर्स सुधारने के दावे कर रही हैं, लेकिन परिजनों का कहना है कि जांच और कार्रवाई बेहद धीमी है। ये कहना गलत नहीं होगा कि AI technology जितनी तेज़ी से आगे बढ़ रही है, उसके लिए बनाए जाने वाले सुरक्षा कानून उतने तेज़ नहीं हैं। इससे साफ ज़ाहिर होता है कि अगर AI को बिना सही निगरानी और सुरक्षा के छोड़ दिया जाए, तो यह मानसिक रूप से कमजोर लोगों, बच्चों और संवेदनशील यूज़र्स के लिए गंभीर खतरा बन सकता है। ऐसे मामले हमें याद दिलाते हैं कि आर्टिफ़िशल इंटेलिजेंस इंसान की जगह नहीं ले सकती और यह भी कि AI इंसान द्वारा बनाया गया टूल है, जिसमें गलती की संभावना हमेशा रहती है।

technology AI