कैटरीना के टर्किश कॉनवो से लेकर नोरा के विज्ञापन तक, क्या आपके पसंदीदा एक्टर्स Real हैं या AI?

हाल ही के एक वीडियो में, कैटरीना कैफ ने तुर्की बोलते हुए ध्यान आकर्षित किया, लेकिन यह पता चला कि यह एक एआई हेरफेर है। नोरा फतेही का एआई-स्टेज्ड बिक्री विज्ञापन भी चिंता पैदा करता है, जो हेरफेर और धोखे में डीपफेक तकनीक के चिंताजनक प्रभाव को उजागर करता है।

author-image
Rajveer Kaur
New Update
Deepfake

From Katrina's Turkish Convo To Nora's Ad; Is Your Favorite Star Real Or AI: बॉलीवुड स्टार कैटरीना कैफ के तुर्की भाषा में बेझिझक बातचीत करने वाले एक हालिया वीडियो ने सोशल मीडिया पर काफी ध्यान आकर्षित किया है। हालाँकि, जब आप करीब से देखते हैं, तो पता चलता है यह कमाल कैफ की तुर्की भाषा का परिणाम नहीं है, बल्कि AI का उपयोग करके किया गया एक हेरफेर है। हाल ही में, नोरा फतेही ने अपनी इंस्टाग्राम स्टोरी पर एक मंचित वीडियो को साँझा किया, जिसने प्रशंसकों को आश्चर्यचकित कर दिया और सोशल मीडिया प्लेटफार्मों पर एक चर्चा शुरुआत हो गई।

Advertisment

एक रीटेल क्लॉथिंग कंपनी द्वारा सीज़न के अंत की बिक्री के विज्ञापन के रूप में चतुराई से डिज़ाइन किया गया वीडियो, शुरू में कंपनी के सोशल मीडिया पर दिखाई दिया। हालाँकि, कंपनी की वेबसाइट पर बारीकी से देखने पर विज्ञापन की अवैध होने का पता चला। यह अनोखी पहल ऑनलाइन वित्तीय धोखाधड़ी के बारे में बढ़ती चिंताओं को दूर करने के लिए कंपनी द्वारा शुरू किए गए रणनीतिक जागरूकता अभियान का हिस्सा है।

कैटरीना के टर्किश कॉनवो से लेकर नोरा के विज्ञापन तक, क्या आपके पसंदीदा एक्टर्स Real हैं या AI?

एआई के दुरुपयोग की बैकग्राउंड के बीच ये घटनाएं डीपफेक तकनीक की गलत इस्तेमाल को दर्शाती हैं। इससे यह साबित होता है कि अपनी भ्रामक क्षमताओं के साथ, गुमराह करने, इंपर्सनेट करने और वास्तविकता में हेरफेर करने की शक्ति रखते हैं, जो तकनीकी रूप से संचालित धोखे के एक संबंधित युग का संकेत देता है।

कैटरीना कैफ के Deepfake वीडियो का पुनर्निर्माण

Advertisment

यह वीडियो, जो सोशल मीडिया पर व्यापक रूप से प्रसारित हुआ है, एक  डीपफेक का खुलासा करता है - एक ऐसी तकनीक जो कंटेंट को बदलने या बनाने के लिए एआई एल्गोरिदम का उपयोग करती है। इस उदाहरण में, प्रशंसकों ने 2014 की फिल्म बैंग बैंग के प्रमोशन के दौरान कैटरीना कैफ और ऋतिक रोशन के एक पुराने इंटरव्यू में एक तुर्की वार्तालाप को सहजता से इंटीग्रेटेड करने के लिए डीपफेक तकनीक का उपयोग किया।

हालांकि तकनीकी तौर पर यह उपलब्धि निस्संदेह प्रभावशाली है, लेकिन यह डीपफेक तकनीक के संभावित दुरुपयोग के बारे में चिंता पैदा करती है। यह वीडियो, हालांकि प्रशंसकों द्वारा ह्यूमर के साथ बनाया गया है पर यह वीडियो वास्तविकता और हेरफेर के बीच की रेखाओं को धुंधला कर देता है। कैटरीना कैफ को तुर्की बोलने का दिखावा करके, डीपफेक अनजाने में एक झूठी कहानी बनाता है, जिसमें अभिनेत्री को उसके वास्तविक व्यक्तित्व से अलग छवि में चित्रित किया जाता है। इस मामले में, कैटरीना कैफ के प्रशंसकों ने, उन्हें बहुभाषी प्रेरित होकर के रूप में प्रस्तुत करने के लिए एआई का उपयोग किया, जो संभावित रूप से व्यापक दर्शकों को गुमराह कर रहा था।

नोरा फतेही के 'डीपफेक' वीडियो पर विवाद!

Advertisment

वीडियो की शुरुआत नोरा फतेही द्वारा, चल रही सेल की शुरुआत करने और दर्शकों से ऑफर का लाभ उठाने का आग्रह करने से होती है। जैसे-जैसे कहानी सामने आती है, एक आश्चर्यजनक मोड़ आता है, जिसमें अभिनेत्री 'विजिल आंटी' के चरित्र में बदल जाती है, जिसे अभिनेत्री और थिएटर कलाकार अनुराधा मेनन द्वारा चित्रित किया गया है।

Deepake

अनुराधा द्वारा निभाए गई [वी] चैनल की एक character लोला कुट्टी से विशेष रूप से मिलते-जुलते, इस रचनात्मक अभियान का उद्देश्य विज्ञापनों में भ्रामक प्रथाओं और उनकी प्रस्तुति और संबंधित वेबसाइटों पर वास्तविकता के बीच संभावित असमानताओं पर प्रकाश डालना है। यह ऑनलाइन लेनदेन के दौरान सावधानी की आवश्यकता पर जोर देता है।

Advertisment

Deepfake

वीडियो में विजिल आंटी, शुरुआती चेतावनी संकेतों के प्रति सतर्क रहकर दर्शकों को वित्तीय धोखाधड़ी से खुद को बचाने के महत्व पर जोर देती है। प्राथमिक ध्यान किसी की मेहनत की कमाई को सुरक्षित रखने पर है, विशेष रूप से धोखाधड़ी वाली शॉपिंग वेबसाइटों की पहचान करके। कंपनी द्वारा इस अभियान का सावधानीपूर्वक execution, ऑनलाइन वित्तीय घोटालों की व्यापकता के बारे में जनता को संबोधित करने और शिक्षित करने की प्रतिबद्धता को दर्शाता है।

Deepfake

Advertisment

दिलचस्प बात यह है कि नोरा फतेही की पोस्ट दिल्ली में अभिनेत्री रश्मिका मंदाना का डीपफेक वीडियो बनाने के लिए जिम्मेदार एक व्यक्ति की गिरफ्तारी के साथ मेल खाती है।

इस पर प्रतिक्रिया व्यक्त करते हुए, एनिमल अभिनेत्री ने एक्स (जिसे पहले ट्विटर कहा जाता था) पर लिखा, "@DCP_IFSO के प्रति हार्दिक आभार व्यक्त करती हूं 🙏🏼 जिम्मेदार लोगों को पकड़ने के लिए धन्यवाद। मैं वास्तव में उस समुदाय के लिए आभारी हूं जो मुझे प्यार से गले लगाता है, मेरा समर्थन करता है, और मेरी रक्षा करता है। 🇮🇳 लड़कियों और लड़कों, अगर आपकी सहमति के बिना कहीं भी आपकी छवि का उपयोग किया जाता है या छेड़छाड़ की जाती है, तो यह गलत है! और मुझे आशा है कि यह एक रिमाइंडर है कि गलत लोगों पर कार्रवाई होगी।"

इस वीडियो ने पिछले साल नवंबर में सोशल मीडिया पर व्यापक ध्यान आकर्षित किया, जिससे ऐसी भ्रामक content पर अंकुश लगाने के लिए सोशल मीडिया प्लेटफार्मों पर नियमों की नए सिरे से मांग की गई।

Advertisment

खतरा मशहूर हस्तियों की गलत तरीके से की गई impersonation में है, जिसका परिणाम डीपफेक सामग्री के बढ़ते प्रचलन में है। ऐसे उदाहरण डिजिटल सामग्री के उपभोग में सतर्कता की आवश्यकता पर प्रकाश डालते हैं, क्योंकि प्रामाणिक और हेरफेर के बीच की रेखा तेजी से बारीक होती जा रही है।

Deepfake कैटरीना कैफ