आखिर कैसे बनाए जाते हैं Deepfake Video, इनकी पहचान और रिपोर्ट करने में न करें देरी

एआई जिसे फ्यूचर कहा जा रहा था, वो एक खतरनाक टूल बनता जा रहा है। हमने पिछले दिनों मशीन लर्निग की एडवांस फॉर्म डीपफेक के कुछ वायरल वीडियो देखे, जिसमें मॉर्फ तस्वीरें थीं। यह टेक्निक क्या है और इसकी पहचान कैसे की जा सकती है, चलिए वो एक्सपर्ट के जरिए जानें।

what is deepfake AI

पिछले कुछ समय में एआई जैसी टेकनोलॉजी पर हमने खूब चर्चा की। एआई कैसे हाई क्वालिटी एजुकेशनल रिसॉर्स में बदल सकता है।

हालांकि, पिछले दिनों हमने देखा कि एआई का गलत इस्तेमाल भी कैसे हो सकता है। पिछले दिनों एक वीडियो वायरल हुआ था, जिसमें एक्ट्रेस रशमिका मंदाना को एक लो नेक, स्ट्रैपी ब्लैक बॉडीसूट पहने एक लिफ्ट में जाते देखा गया था।

इस वीडियो ने इंटरनेट पर बवाल मचा दिया था, लेकिन एक यूजर ने पॉइंट किया कि यह डीपफेक वीडियो है। किसी और महिला के चेहरे पर रश्मिका का चेहरा लगाया गया था। इस वीडियो के प्रति एक्टर अमिताभ बच्चने ने भी अपना कंसर्न शेयर किया था। उन्होंने लीगल एक्शन की अपील तक की थी।

बाद में पता चला कि यह वीडियो एक ब्रिटिश-इंडियन इंफ्लूएंसर जारा पटेल की थी और उन्होंने अपनी वीडियो इंस्टाग्राम हैंडल पर शेयर की थी।

इसके बाद, कैटरीन कैफ की एक वीडियो वायरल होने लगी और लोगों ने कमेंट कर बताया कि एक्ट्रेस कियारा आडवाणी के ऐसे वीडियोज भी इंटरनेट पर उपलब्ध हैं।

पता लगा कि यह मशीन लर्निंग के एक एडवांस फॉर्म डीपफेक के जरिए बनाया गया था। इससे लोगों के ऐसे वीडियो बनाए जाते हैं जो उन्हें वो चीजे करते और कहते दिखाता है, जो उन्होंने असल में नहीं की है।

लोगों के वीडियो बनाने के लिए एआई और प्रौद्योगिकी के इस नए उपयोग ने गोपनीयता, सुरक्षा और नकली जानकारी के बारे में गंभीर सवाल खड़े कर दिए हैं।

हरजिंदगी ने ग्लोबल साइबर सिक्योरिटी एक्सपर्ट अमित जाजू से बात की जिन्होंने इस नई टेक्नॉलोजी के बारे में विस्तार से बताया। साथ ही, यह भी बताया कि जो लोग इसके शिकार बनते हैं, वो अपनी मदद कैसे कर सकते हैं।

डीपफेक कैसे बनाए जाते हैं?

how deepfakes are created

अमित ने बताया, "डीपफेक को गहन शिक्षण और जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) जैसी सोफेस्टिकेटे आर्टिफिशियल इंटेलिजेंस तकनीकों का उपयोग करके बनाया जाता है।"

यह मैनिपुलेटेड इमेज जहां पर लोगों के चेहरे को मॉर्फ करके दूसरी बॉडी में लगाया जाता है, यह लंबे समय से मौजूद है। मगर डीपफेक इन-डेप्थ तकनीक का उपयोग करते हैं, जो उन्हें उन तस्वीरों की तुलना में अधिक जटिल बनाता है।

इसे भी पढ़ें: Rashmika Mandanna के फेक वायरल वीडियो पर अमिताभ बच्चन ने भी दिया रिएक्शन

डीपफेक खतरनाक क्यों है?

जबकि सामान्य फिल्टर और ऐप्स लोगों के चेहरे बदलने या उन्हें बदलने में मदद कर सकते हैं, डीपफेक कहीं अधिक खतरनाक हो सकता है।

कॉमेडियन तन्मय भट्ट ने ऐसे ऐप का इस्तेमाल कर गायिका लता मंगेशकर और क्रिकेटर सचिन तेंदुलकर का कैरिकेचर वीडियो बनाया था जिसके बाद वह विवादों में घिर गए थे।

डीपफेक को जो बात सबसे अलग बनाती है वह यह है कि वे कितने सटीक हैं। यह जानने के लिए कि वीडियो वास्तविक है या नहीं, आपको बहुत अधिक ध्यान देने की आवश्यकता होगी।

अमित ने बताया, "वे फोटोशॉप की गई पिक्चर्स से अलग हैं क्योंकि डीपफेक पूरी तरह से नया कॉन्टेंट बना सकते हैं जो अक्सर वास्तविक फुटेज से एकदम अलग होता है, जबकि फोटोशॉप की गई पिक्चर्स में आम तौर पर मौजूदा तस्वीरों को एडिट किया जाता है।"

ऐसे ही एक कंटेंट निर्माता क्रिस उमे काफी प्रसिद्ध हुए थे। उनमें और अभिनेता टॉम क्रूज में सिमिलेरिटी थी, जिसका उपयोग उन्होंने डीपफेक बनाने के लिए किया। उन्होंने जो वीडियो बनाए वो इतने समान हैं कि कोई भी सामान्य व्यक्ति उसे टॉम क्रूज ही समझेगा।

जिस उद्देश्य के लिए इस तरह की तकनीक का उपयोग किया जाता है, वह डीपफेक को डरावना भी बनाता है, साथ ही इसका उपयोग ग्राफिक या प्रोनोग्राफिक सामग्री बनाने के लिए किए जाने की संभावना भी होती है।

डीपफेक वीडीयो को कैसे स्पॉट कर सकते हैं?

किसी भी डीपफेक वीडियो को रिपोर्ट करने का सबसे पहला स्टेप है कि आप डीपफेक वीडियो को स्पॉट कर सकें।

अमित विस्तार से बताते हैं कि ऐसी वीडियोज को स्पॉट करना चुनौतीपूर्ण हो सकता है, लेकिन कुछ ऐसे साइन हैं जिनकी मदद से आप उन्हें पहचान सकते हैं। वह बताते हैं, "अननेचुरल ब्लिंकिंग, मिसमैच लिप-सिंकिंग, इनकंसिस्टेंट लाइटिंग और खराब क्वालिटी वाले किनारे ऐसे साइन हैं जिन पर आपको गौर करना चाहिए।"

वायरल हो रहे रश्मिका मंदाना वाले वीडियो में, अगर कोई बारीकी से देखता है, तो एक पॉइंट है जहां वह लिफ्ट में प्रवेश करने ही वाली है, और उनका चेहरा एकदम बदलता है, इसे कोई भी देख सकता है।

खुद को डीपफेक वीडियोज का शिकार होने से कैसे बचाएं

हम सभी का बहुत सारा डेटा इंटरनेट पर आसानी से और खुले तौर पर उपलब्ध है और यह एक बड़ी चिंता का विषय है। ऐसे में इस समस्या से कैसे बचा जा सकता है?

सोशल मीडिया हैंडल X पर साइबर सिक्योरिटी कंपनी सेक्योरयोरहैक्स के फाउंडर सनी नेहरा बताते हैं कि लोगों को इसके प्रति जागरुक रहना चाहिए कि वे ऑनलाइन क्या और कितना शेयर कर रहे हैं।

आपकी जितनी तस्वीरें इंटरनेट पर उपलब्ध होंगी, उतना वो डीपफेक पर असल दिखेंगी, इसलिए सेलिब्रिटी डीपफेक्स बहुत ज्यादा रियलिस्टिक होते हैं। अगर आपको लगता है कि ऐसा आपके साथ हो सकता है, तो सार्वजनिक डोमेन में फोटो, वीडियो शेयर करने से बचें या उसे सीमित करें।

साइबर सुरक्षा विशेषज्ञ अमित ने कहा कि खुद को सुरक्षित रखने के लिए सोशल मीडिया एप्लिकेशन पर उपलब्ध गोपनीयता सेटिंग्स को प्रबंधित करना महत्वपूर्ण है।

“खुद को डीपफेक वीडियो का शिकार बनने से बचाने के लिए, सभी को अपने डिजिटल फुटप्रिंट को सावधानीपूर्वक प्रबंधित करना चाहिए, सोशल मीडिया पर मजबूत गोपनीयता सेटिंग्स का उपयोग करना चाहिए, और पिक्चर्स और वीडियो को ऑनलाइन साझा करने के बारे में सतर्क रहना चाहिए। डीपफेक के अस्तित्व और प्रकृति के बारे में जागरूकता और खुद को शिक्षित करना भी महत्वपूर्ण है।

इसे भी पढ़ें: AI: कैटरीना कैफ की तरह मॉडर्न नहीं बल्कि आम परिवार की बहू में होने चाहिए ये गुण

अपना डीपफेक वीडियो स्पॉट करने के बाद क्या करें?

अमित कहते हैं कि अपने वीडियो को डॉक्यूमेंट करें और उसे तुरंत रिपोर्ट करें। इसके साथ ही तुरंत साइबर क्राइम अधिकारियों को कॉन्टैक्ट करें।

भारत में, कोई भी ऐसी घटनाओं की रिपोर्ट अपने शहर के पुलिस फोर्स के साइबर सेल विभाग या भारतीय कंप्यूटर आपातकालीन प्रतिक्रिया टीम (सीईआरटी-इन) को कर सकता है।

आईपीआर कानून में विशेषज्ञता रखने वाले वेरम लीगल के पार्टनर मुदित कौशिक ने बताया कि किसी को पुलिस शिकायत दर्ज करने की भी आवश्यकता हो सकती है।

वह कहते हैं, "यदि गोपनीयता का उल्लंघन या मानहानि होती है तो पुलिस शिकायत की आवश्यकता होती है।" "प्लेटफॉर्म आईटी नियम 2021 का पालन करने के लिए बाध्य हैं, जिसमें ऐसे कॉन्टेंट को जल्द से जल्द हटाना जरूरी है।"

जैसा कि एक हालिया सलाह में निर्देशित किया गया है, प्लेटफार्मों को आईटी नियम 2021 के अनुसार 36 घंटों के भीतर डीपफेक को जल्दी हटाना होगा, अनुपालन न करने पर संभावित रूप से आईपीसी के तहत कानूनी कार्रवाई हो सकती है।

रश्मिका मंदाना मामले में केंद्रीय मंत्री राजीव चंद्रशेखर ने ट्वीट किया कि अगर प्लेटफॉर्म आईटी नियमों का पालन नहीं करते हैं तो उन्हें अदालत में ले जाया जा सकता है।

डीपफेक किस कानून के अंतर्गत आते हैं?

आईपीआर वकील मुदित ने बताया, “भारत में, डीपफेक गोपनीयता, इंटलेक्चुअल प्रॉपर्टी, सूचना प्रौद्योगिकी और आपराधिक कानून सहित कई कानूनी क्षेत्रों के अधीन हैं। आईटी अधिनियम, 2000 पहचान की चोरी (धारा 66 सी), प्रतिरूपण (धारा 66 डी), प्राइवेसी इंवेजन (धारा 66 ई) और अश्लील कॉन्टेंट (धारा 67, 67 ए) के अधीन है।

इसके अलावा, ऐसे वीडियो के नेचर को देखते हुए, डीपफेक का मुख्य मुद्दा मानहानि पर टिका है।

उन्होंने कहा, "मानहानि के मुद्दों को इमेज को नुकसान पहुंचाने के लिए भारतीय दंड संहिता (आईपीसी) की धारा 500 के तहत प्रबंधित किया जाता है।" "डीपफेक के माध्यम से जालसाजी आईपीसी की धारा 468 के तहत आ सकती है।" डीपफेक के निर्माण और प्रसार में कॉपीराइट का उल्लंघन भी शामिल है।

मुदित ने आगे कहा, "जब डीपफेक बिना अनुमति के किसी की तस्वीर, प्रदर्शन या रचनात्मक कार्य को शामिल करता है, तो यह कॉपीराइट अधिनियम की धारा 14 के तहत कॉपीराइट का उल्लंघन हो सकता है।"

लोगों को डीपफेक से बचाने के लिए और क्या किया जा सकता है?

विशेषज्ञ भी मानते हैं कि इसके लिए डिजिटल साक्षरता महत्वपूर्ण है। मुदित कहते हैं कि एआई और डिजिटल फोरेंसिक अनुसंधान में रिसर्च बेहद जरूरी है इससे ज्यादा सोफिस्टिकेटेड डिटेक्शन और रोकथाम उपकरण विकसित करना आसान होगा, जिससे ऐसे खतरों से बचा जा सकता है।

साइबर सुरक्षा विशेषज्ञ अमित ने लगातार विकसित हो रही डीपफेक तकनीक से निपटने के लिए कानून की आवश्यकता पर प्रकाश डाला।

उन्होंने कहा, "भारत को डिजिटल इंपर्सोनेशन और गोपनीयता को संबोधित करने वाले कानूनों की आवश्यकता है। समाज के सभी स्तरों पर शिक्षा और जागरूकता जरूरी है और डिफेंस का पहला स्टेप है। यह लोगों को डीपफेक द्वारा उत्पन्न चुनौतियों का जवाब देने में सक्षम बनाती है।"

इस बारे में आपके क्या विचार हैं, हमें जरूर बताएं। अगर यह लेख अच्छा लगा, तो इसे लाइक और शेयर करें और ऐसे ही लेख पढ़ने के लिए जुड़े रहें हरजिंदगी के साथ।

Image Credit: freepik

HzLogo

HerZindagi ऐप के साथ पाएं हेल्थ, फिटनेस और ब्यूटी से जुड़ी हर जानकारी, सीधे आपके फोन पर! आज ही डाउनलोड करें और बनाएं अपनी जिंदगी को और बेहतर!

GET APP