पिछले कुछ समय में एआई जैसी टेकनोलॉजी पर हमने खूब चर्चा की। एआई कैसे हाई क्वालिटी एजुकेशनल रिसॉर्स में बदल सकता है।
हालांकि, पिछले दिनों हमने देखा कि एआई का गलत इस्तेमाल भी कैसे हो सकता है। पिछले दिनों एक वीडियो वायरल हुआ था, जिसमें एक्ट्रेस रशमिका मंदाना को एक लो नेक, स्ट्रैपी ब्लैक बॉडीसूट पहने एक लिफ्ट में जाते देखा गया था।
इस वीडियो ने इंटरनेट पर बवाल मचा दिया था, लेकिन एक यूजर ने पॉइंट किया कि यह डीपफेक वीडियो है। किसी और महिला के चेहरे पर रश्मिका का चेहरा लगाया गया था। इस वीडियो के प्रति एक्टर अमिताभ बच्चने ने भी अपना कंसर्न शेयर किया था। उन्होंने लीगल एक्शन की अपील तक की थी।
बाद में पता चला कि यह वीडियो एक ब्रिटिश-इंडियन इंफ्लूएंसर जारा पटेल की थी और उन्होंने अपनी वीडियो इंस्टाग्राम हैंडल पर शेयर की थी।
इसके बाद, कैटरीन कैफ की एक वीडियो वायरल होने लगी और लोगों ने कमेंट कर बताया कि एक्ट्रेस कियारा आडवाणी के ऐसे वीडियोज भी इंटरनेट पर उपलब्ध हैं।
पता लगा कि यह मशीन लर्निंग के एक एडवांस फॉर्म डीपफेक के जरिए बनाया गया था। इससे लोगों के ऐसे वीडियो बनाए जाते हैं जो उन्हें वो चीजे करते और कहते दिखाता है, जो उन्होंने असल में नहीं की है।
लोगों के वीडियो बनाने के लिए एआई और प्रौद्योगिकी के इस नए उपयोग ने गोपनीयता, सुरक्षा और नकली जानकारी के बारे में गंभीर सवाल खड़े कर दिए हैं।
हरजिंदगी ने ग्लोबल साइबर सिक्योरिटी एक्सपर्ट अमित जाजू से बात की जिन्होंने इस नई टेक्नॉलोजी के बारे में विस्तार से बताया। साथ ही, यह भी बताया कि जो लोग इसके शिकार बनते हैं, वो अपनी मदद कैसे कर सकते हैं।
डीपफेक कैसे बनाए जाते हैं?
अमित ने बताया, "डीपफेक को गहन शिक्षण और जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) जैसी सोफेस्टिकेटे आर्टिफिशियल इंटेलिजेंस तकनीकों का उपयोग करके बनाया जाता है।"
यह मैनिपुलेटेड इमेज जहां पर लोगों के चेहरे को मॉर्फ करके दूसरी बॉडी में लगाया जाता है, यह लंबे समय से मौजूद है। मगर डीपफेक इन-डेप्थ तकनीक का उपयोग करते हैं, जो उन्हें उन तस्वीरों की तुलना में अधिक जटिल बनाता है।
इसे भी पढ़ें: Rashmika Mandanna के फेक वायरल वीडियो पर अमिताभ बच्चन ने भी दिया रिएक्शन
yes this is a strong case for legal https://t.co/wHJl7PSYPN
— Amitabh Bachchan (@SrBachchan) November 5, 2023
डीपफेक खतरनाक क्यों है?
जबकि सामान्य फिल्टर और ऐप्स लोगों के चेहरे बदलने या उन्हें बदलने में मदद कर सकते हैं, डीपफेक कहीं अधिक खतरनाक हो सकता है।
कॉमेडियन तन्मय भट्ट ने ऐसे ऐप का इस्तेमाल कर गायिका लता मंगेशकर और क्रिकेटर सचिन तेंदुलकर का कैरिकेचर वीडियो बनाया था जिसके बाद वह विवादों में घिर गए थे।
डीपफेक को जो बात सबसे अलग बनाती है वह यह है कि वे कितने सटीक हैं। यह जानने के लिए कि वीडियो वास्तविक है या नहीं, आपको बहुत अधिक ध्यान देने की आवश्यकता होगी।
अमित ने बताया, "वे फोटोशॉप की गई पिक्चर्स से अलग हैं क्योंकि डीपफेक पूरी तरह से नया कॉन्टेंट बना सकते हैं जो अक्सर वास्तविक फुटेज से एकदम अलग होता है, जबकि फोटोशॉप की गई पिक्चर्स में आम तौर पर मौजूदा तस्वीरों को एडिट किया जाता है।"
ऐसे ही एक कंटेंट निर्माता क्रिस उमे काफी प्रसिद्ध हुए थे। उनमें और अभिनेता टॉम क्रूज में सिमिलेरिटी थी, जिसका उपयोग उन्होंने डीपफेक बनाने के लिए किया। उन्होंने जो वीडियो बनाए वो इतने समान हैं कि कोई भी सामान्य व्यक्ति उसे टॉम क्रूज ही समझेगा।
जिस उद्देश्य के लिए इस तरह की तकनीक का उपयोग किया जाता है, वह डीपफेक को डरावना भी बनाता है, साथ ही इसका उपयोग ग्राफिक या प्रोनोग्राफिक सामग्री बनाने के लिए किए जाने की संभावना भी होती है।
डीपफेक वीडीयो को कैसे स्पॉट कर सकते हैं?
किसी भी डीपफेक वीडियो को रिपोर्ट करने का सबसे पहला स्टेप है कि आप डीपफेक वीडियो को स्पॉट कर सकें।
अमित विस्तार से बताते हैं कि ऐसी वीडियोज को स्पॉट करना चुनौतीपूर्ण हो सकता है, लेकिन कुछ ऐसे साइन हैं जिनकी मदद से आप उन्हें पहचान सकते हैं। वह बताते हैं, "अननेचुरल ब्लिंकिंग, मिसमैच लिप-सिंकिंग, इनकंसिस्टेंट लाइटिंग और खराब क्वालिटी वाले किनारे ऐसे साइन हैं जिन पर आपको गौर करना चाहिए।"
वायरल हो रहे रश्मिका मंदाना वाले वीडियो में, अगर कोई बारीकी से देखता है, तो एक पॉइंट है जहां वह लिफ्ट में प्रवेश करने ही वाली है, और उनका चेहरा एकदम बदलता है, इसे कोई भी देख सकता है।
खुद को डीपफेक वीडियोज का शिकार होने से कैसे बचाएं
हम सभी का बहुत सारा डेटा इंटरनेट पर आसानी से और खुले तौर पर उपलब्ध है और यह एक बड़ी चिंता का विषय है। ऐसे में इस समस्या से कैसे बचा जा सकता है?
सोशल मीडिया हैंडल X पर साइबर सिक्योरिटी कंपनी सेक्योरयोरहैक्स के फाउंडर सनी नेहरा बताते हैं कि लोगों को इसके प्रति जागरुक रहना चाहिए कि वे ऑनलाइन क्या और कितना शेयर कर रहे हैं।
आपकी जितनी तस्वीरें इंटरनेट पर उपलब्ध होंगी, उतना वो डीपफेक पर असल दिखेंगी, इसलिए सेलिब्रिटी डीपफेक्स बहुत ज्यादा रियलिस्टिक होते हैं। अगर आपको लगता है कि ऐसा आपके साथ हो सकता है, तो सार्वजनिक डोमेन में फोटो, वीडियो शेयर करने से बचें या उसे सीमित करें।
साइबर सुरक्षा विशेषज्ञ अमित ने कहा कि खुद को सुरक्षित रखने के लिए सोशल मीडिया एप्लिकेशन पर उपलब्ध गोपनीयता सेटिंग्स को प्रबंधित करना महत्वपूर्ण है।
“खुद को डीपफेक वीडियो का शिकार बनने से बचाने के लिए, सभी को अपने डिजिटल फुटप्रिंट को सावधानीपूर्वक प्रबंधित करना चाहिए, सोशल मीडिया पर मजबूत गोपनीयता सेटिंग्स का उपयोग करना चाहिए, और पिक्चर्स और वीडियो को ऑनलाइन साझा करने के बारे में सतर्क रहना चाहिए। डीपफेक के अस्तित्व और प्रकृति के बारे में जागरूकता और खुद को शिक्षित करना भी महत्वपूर्ण है।
इसे भी पढ़ें: AI: कैटरीना कैफ की तरह मॉडर्न नहीं बल्कि आम परिवार की बहू में होने चाहिए ये गुण
अपना डीपफेक वीडियो स्पॉट करने के बाद क्या करें?
अमित कहते हैं कि अपने वीडियो को डॉक्यूमेंट करें और उसे तुरंत रिपोर्ट करें। इसके साथ ही तुरंत साइबर क्राइम अधिकारियों को कॉन्टैक्ट करें।
भारत में, कोई भी ऐसी घटनाओं की रिपोर्ट अपने शहर के पुलिस फोर्स के साइबर सेल विभाग या भारतीय कंप्यूटर आपातकालीन प्रतिक्रिया टीम (सीईआरटी-इन) को कर सकता है।
आईपीआर कानून में विशेषज्ञता रखने वाले वेरम लीगल के पार्टनर मुदित कौशिक ने बताया कि किसी को पुलिस शिकायत दर्ज करने की भी आवश्यकता हो सकती है।
वह कहते हैं, "यदि गोपनीयता का उल्लंघन या मानहानि होती है तो पुलिस शिकायत की आवश्यकता होती है।" "प्लेटफॉर्म आईटी नियम 2021 का पालन करने के लिए बाध्य हैं, जिसमें ऐसे कॉन्टेंट को जल्द से जल्द हटाना जरूरी है।"
जैसा कि एक हालिया सलाह में निर्देशित किया गया है, प्लेटफार्मों को आईटी नियम 2021 के अनुसार 36 घंटों के भीतर डीपफेक को जल्दी हटाना होगा, अनुपालन न करने पर संभावित रूप से आईपीसी के तहत कानूनी कार्रवाई हो सकती है।
रश्मिका मंदाना मामले में केंद्रीय मंत्री राजीव चंद्रशेखर ने ट्वीट किया कि अगर प्लेटफॉर्म आईटी नियमों का पालन नहीं करते हैं तो उन्हें अदालत में ले जाया जा सकता है।
The more the photos of yours available on the internet,
— Sunny Nehra (@sunnynehrabro) November 8, 2023
The more realistic your #deepfake would be.
This is why the deepfakes of celebrities are so realistic.
If you are very concerned about your deepfakes getting created, avoid or limit sharing photos, videos in public domain.
डीपफेक किस कानून के अंतर्गत आते हैं?
आईपीआर वकील मुदित ने बताया, “भारत में, डीपफेक गोपनीयता, इंटलेक्चुअल प्रॉपर्टी, सूचना प्रौद्योगिकी और आपराधिक कानून सहित कई कानूनी क्षेत्रों के अधीन हैं। आईटी अधिनियम, 2000 पहचान की चोरी (धारा 66 सी), प्रतिरूपण (धारा 66 डी), प्राइवेसी इंवेजन (धारा 66 ई) और अश्लील कॉन्टेंट (धारा 67, 67 ए) के अधीन है।
इसके अलावा, ऐसे वीडियो के नेचर को देखते हुए, डीपफेक का मुख्य मुद्दा मानहानि पर टिका है।
उन्होंने कहा, "मानहानि के मुद्दों को इमेज को नुकसान पहुंचाने के लिए भारतीय दंड संहिता (आईपीसी) की धारा 500 के तहत प्रबंधित किया जाता है।" "डीपफेक के माध्यम से जालसाजी आईपीसी की धारा 468 के तहत आ सकती है।" डीपफेक के निर्माण और प्रसार में कॉपीराइट का उल्लंघन भी शामिल है।
मुदित ने आगे कहा, "जब डीपफेक बिना अनुमति के किसी की तस्वीर, प्रदर्शन या रचनात्मक कार्य को शामिल करता है, तो यह कॉपीराइट अधिनियम की धारा 14 के तहत कॉपीराइट का उल्लंघन हो सकता है।"
लोगों को डीपफेक से बचाने के लिए और क्या किया जा सकता है?
विशेषज्ञ भी मानते हैं कि इसके लिए डिजिटल साक्षरता महत्वपूर्ण है। मुदित कहते हैं कि एआई और डिजिटल फोरेंसिक अनुसंधान में रिसर्च बेहद जरूरी है इससे ज्यादा सोफिस्टिकेटेड डिटेक्शन और रोकथाम उपकरण विकसित करना आसान होगा, जिससे ऐसे खतरों से बचा जा सकता है।
साइबर सुरक्षा विशेषज्ञ अमित ने लगातार विकसित हो रही डीपफेक तकनीक से निपटने के लिए कानून की आवश्यकता पर प्रकाश डाला।
उन्होंने कहा, "भारत को डिजिटल इंपर्सोनेशन और गोपनीयता को संबोधित करने वाले कानूनों की आवश्यकता है। समाज के सभी स्तरों पर शिक्षा और जागरूकता जरूरी है और डिफेंस का पहला स्टेप है। यह लोगों को डीपफेक द्वारा उत्पन्न चुनौतियों का जवाब देने में सक्षम बनाती है।"
इस बारे में आपके क्या विचार हैं, हमें जरूर बताएं। अगर यह लेख अच्छा लगा, तो इसे लाइक और शेयर करें और ऐसे ही लेख पढ़ने के लिए जुड़े रहें हरजिंदगी के साथ।
Image Credit: freepik
HerZindagi ऐप के साथ पाएं हेल्थ, फिटनेस और ब्यूटी से जुड़ी हर जानकारी, सीधे आपके फोन पर! आज ही डाउनलोड करें और बनाएं अपनी जिंदगी को और बेहतर!
कमेंट्स
सभी कमेंट्स (0)
बातचीत में शामिल हों