डीपफेक:विज्ञान की एक शाखा है जो मशीनों और सॉफ्टवेयर को बुद्धि के साथ विकसित है।

डीपफेक:विज्ञान की एक शाखा है जो मशीनों और सॉफ्टवेयर को बुद्धि के साथ विकसित है।

०१
WhatsApp Image 2023-11-05 at 19.07.46
PETS Holi 2024
previous arrow
next arrow
०१
WhatsApp Image 2023-11-05 at 19.07.46
PETS Holi 2024
previous arrow
next arrow

श्रीनारद मीडिया सेंट्रल डेस्क

डीपफेक व्यक्तिगत जीवन से आगे बढ़ कर अब राजनीतिक एवं वैश्विक सन्दर्भों के लिये एक गंभीर खतरा बनता जा रहा है। इक्कीसवीं सदी में कृत्रिम बुद्धिमत्ता (आर्टिफ़िशियल इंटेलिजेंस या एआई) तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है, एआइ के जरिए डीपफेक वीडियो बनाकर सोशल मीडिया पर वायरल किए जा रहे हैं।

गलत सूचनाएं, ऑडियो-वीडियो और तस्वीरें फैलाने वालों के हाथों में एआइ ने खतरनाक उस्तरा थमा दिया है, जो राष्ट्रीय सुरक्षा एवं राजनीतिक मुद्दों के साथ व्यक्तिगत छवि को घूमिल करने का हथियार बनकर अनेक चिन्ताओं को बढ़ा रहा है और बड़े संकट का सबब बनता जा रहा है। डीपफेक ने प्रधानमंत्री नरेंद्र मोदी को भी नहीं बक्शा है, उन्हें भी परेशान कर दिया है। उनका एक वीडियो इन दिनों यू-ट्यूब सहित सभी सोशल मीडिया प्लेटफॉर्म्स पर खूब चर्चित हो रहा है, इसमें उनको गरबा करते दिखाया गया है। ये पूरा वीडियो डीपफेक नाम की आर्टिफिशियल इंटेलिजेंस से तैयार किया गया है। इसी तरह देश एवं विदेश की अनेक हस्तियों के अनेक अश्लील एवं राजनीतिक डीपफेक व्यापक स्तर पर प्रसारित हो रहे हैं।

डीपफेक एक ऐसी तकनीक है जिसमे आप कृत्रिम बुद्धिमत्ता की मदद एवं तकनीक से वीडियो, तस्वीरों और ऑडियो में हेरफेर कर सकते है। इस तकनीक की मदद से आप किसी दूसरे व्यक्ति की फ़ोटो या वीडियो पर किसी और का चेहरा लगाकर उसे पूरी तरह से बदल भी सकते है। एक रिपोर्ट के अनुसार इसका सबसे ज्यादा इस्तेमाल लगभग 96 प्रतिशत के आसपास अश्लील सामग्री बनाने में होता है।

कुछ लोग इसका इस्तेमाल अपने मर चुके रिश्तेदारों की तस्वीरों को ऐनिमेट करने में भी करते हैं लेकिन अब डीपफेक कंटेंट का इस्तेमाल देश एवं विदेश की राजनीति में भी होने लगा है। राजनीतिक पार्टियाँ अपने चुनावी प्रचार में इस तकनीक का जमकर इस्तेमाल कर रही है। आम जनता को गुमराह करने एवं बड़ी हस्तियों की छवि एवं प्रतिष्ठा को धूमिल करने में अब इस तकनीक का व्यापक उपयोग होने लगा है।

अनेक फिल्मी हस्तियों विशेषतः हीराइनों की अविश्वसनीय अश्लील एवं नग्न वीडियो बड़ी संख्या में आनलाइन आसानी से देखी जा सकती हैं। पब्लिक प्लेटफॉर्म्स पर मौजूद फोटोज की मदद से आसानी से डीपफेक वीडियो बनाया जा सकता है। ऐसे वक्त में जब कोई नौसिखिया भी आसानी से फर्जी वीडियो बनाकर सच और झूठ का फर्क मिटा सकता है, किसी भी वीडियो पर झट से भरोसा ना करें क्योंकि डीपफेक वीडियोज से घिरी वर्चुअल दुनिया में आंखों देखा सबकुछ हमेशा सच नहीं होता।

देश-विदेश में कई प्रतिष्ठित हस्तियां डीपफेक वीडियो का शिकार हो चुकी हैं। कई विदेशी हस्तियों के भी डीपफेक वीडियो सामने आ चुके हैं। यूक्रेन के राष्ट्रपति व्लादिमीर जेलेंस्की के डीपफेक वीडियो में तो वे रूस से लड़ रही अपनी सेना को सरेंडर करने के लिए कह रहे हैं। इजरायल-हमास युद्ध के भी कई डीपफेक वीडियो सोशल मीडिया पर वायरल हो चुके हैं।

तभी प्रधानमंत्री नरेंद्र मोदी ने भी डीपफेक को देश के लिए सबसे बड़े खतरों में से एक बता इसके खिलाफ जनता को शिक्षित एवं सावधान करने पर जोर दिया है। भारत के लिये यह बड़ा खतरा इसलिये भी है क्योंकि भारत विविधता वाला देश है, यहां की जनता छोटी-छोटी बातों पर भावुक हो जाती है एवं भड़क जाती है। असली एवं नकली यानी डीपफेक का पता लगाने के लिये सतर्कता एवं सावधानी बरतने की अपेक्षा है।

अगर वीडियो में आँख और नाक कहीं और जा रही है या वीडियो में पलक नहीं झपकाई गई है तो समझ जाइए यह डीपफेक कंटेंट है। कंटेंट की कलरिंग को भी देखकर पता लग सकता है कि तस्वीर या वीडियो में छेड़छाड़ हुई है। ढेरों चर्चित महिला हस्तियों एवं सिने कलाकारों के चेहरे डीपफेक टेक की मदद से पॉर्न वीडियोज पर लगाकर उन्हें ऑनलाइन शेयर किया जा रहा है।

पॉप्युलर अमेरिकन अडल्ट साइट की ट्रेंडिंग टैग्स रिपोर्ट दिखाती है कि ऐसे वीडियोज पिछले कुछ महीने में तेजी से चर्चित हुए हैं और इन्हें व्यापक रूप में सर्च किया जा रहा है या देखा जा रहा है। इस टेक से किसी का फेक न्यूड वीडियो बनाकर उसे ब्लैकमेल भी किया जा सकता है और ऐसे मामले सामने आए भी हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे यह टेक्नॉलजी पॉप्युलर होगी, इसका गलत इस्तेमाल और ऐसे क्राइम भी बढ़ते जाएंगे।

कृत्रिम बुद्धि, कंप्यूटर विज्ञान की एक शाखा है जो मशीनों और सॉफ्टवेयर को बुद्धि के साथ विकसित करता है। 1955 में जॉन मैकार्थी ने इसको कृत्रिम बुद्धि का नाम दिया। कृत्रिम बुद्धि अनुसंधान के लक्ष्यों में तर्क, ज्ञान की योजना, सीखने, धारणा और वस्तुओं में हेरफेर करने की क्षमता, आदि शामिल हैं। कृत्रिम बुद्धि का दावा इतना है कि मानव की बुद्धि का मशीन द्वारा अनुकरण किया जा सकता है।

बिजली के बल्ब और मूवी कैमरे के आविष्कारक थॉमस अल्वा एडिसन ने कहा था कि हर नई तकनीक सुविधाओं के साथ कुछ नकारात्मक पहलू भी लाती है। नित नई तकनीक के दौर से गुजर रही दुनिया में उनका कथन प्रासंगिक बना हुआ है। कृत्रिम बुद्धिमत्ता तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है।

किसी भी बात या घटना के सच होने का सबसे बड़ा सबूत उसके किसी वीडियो को माना जाता रहा है लेकिन अब चीजें बदल गई हैं। आंखों देखी पर और किसी भी तरह के डिजिटल फोटो या वीडियो पर भरोसा नहीं किया जा सकता। डीपफेक टेक्नॉलॉजी की मदद से ऐसे वीडियो बनाए जा सकते हैं कि बड़े-बड़े एक्सपर्ट्स भी गच्चा खा जाएं। सामान्य इंटरनेट यूजर शायद ही समझ पाए कि वीडियो डीपफेक है और उसमें दिखने वाला शख्स कोई और है। यह टेक्नॉलॉजी वीडियोज के साथ बिल्कुल वैसे ही काम करती है, जैसा फोटो के लिए फोटोशॉप करता है।

सोशल मीडिया पर अभिनेत्री रश्मिका मंदाना का एक वीडियो वायरल हो रहा है, यह वीडियो फेक (डीपफेक) है। दरअसल इस वीडियो को लेकर मेगा स्टार अमिताभ बच्चन ने भी चिंता जताई है। इस डीपफेक वीडियो पर दिल्ली महिला आयोग ने स्वतः संज्ञान लेते हुए दिल्ली पुलिस में मामला दर्ज कराया है। इस मामले में एक गिरफ्तारी भी हो चुकी है। अब काजोल का भी डीपफेक सोशल मीडिया पर आ गया है। इसमें उनको कपड़े बदलते दिखाया गया है।

इसमें ओरिजनल वीडियो ब्रिटिश सोशल मीडिया इन्फ्लुएंसर रोजी ब्रीन का है। उन्होंने ये वीडियो टिकटॉक पर ‘गेट रेडी विद मी’ सीरीज के लिए बनाया था। भारत में डीपफेक तकनीक का दुरुपयोग रोकने और फर्जी वीडियो की पहचान के लिए बेहतर प्रौद्योगिकी विकसित करने की जरूरत है। चिंता की बात है कि सोशल मीडिया मंचों और टेक कंपनियों ने डीपफेक वीडियो पर अंकुश के लिए कोई बड़ी पहल नहीं की है। लेकिन भारत सरकार इस मुद्दे पर इसकी घातकता को देखते हुए गंभीर है।

सरकार इंटरनेट इस्तेमाल करने वाले सभी डिजिटल नागरिक की सुरक्षा और भरोसे को सुनिश्चित करने को लेकर प्रतिबद्ध है। सरकार ने सोशल मीडिया कंपनियों को गलत सूचनाओं, डीपफेक और अन्य अवांछित सामग्री की पहचान कर 36 घंटे के अंदर उन्हें हटाने के निर्देश दिए जा चुके हैं। सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने साफ कह दिया कि सोशल मीडिया प्लेटफॉर्म अगर डीपफेक कंटेंट को हटाने के लिए पर्याप्त कदम नहीं उठाते हैं तो उन्हें मिलने वाले संरक्षण को वापस ले लिया जाएगा।

कई देशों की सरकारें डीपफेक के नियमन की तैयारी में हैं। कुछ अमेरिकी राज्यों में बगैर सहमति डीपफेक बनाने को अपराध घोषित किया जा चुका है। यूरोपीय देशों में भी कानून बनाने की तैयारी चल रही है। सिर्फ कानून बनाने से समस्या से पार पाना संदिग्ध है। जरूरत ऐसे तंत्र की है, जो डीपफेक की सतत निगरानी रख अवांछित सामग्री फैलाने के सभी रास्ते बंद रखे।

Leave a Reply

error: Content is protected !!