डीपफेक के इस दौर में 'आंखों देखी' घटना पर भी भरोसा नहीं किया जा सकता

ऑडियो-वीडियो और तस्वीरें फैलाने वालों के हाथों में एआइ ने खतरनाक उस्तरा थमा दिया है

डीपफेक के इस दौर में 'आंखों देखी' घटना पर भी भरोसा नहीं किया जा सकता

डीपफेक : व्यक्तिगत जीवन से आगे बढ़ कर अब राजनीतिक एवं वैश्विक सन्दर्भों के लिये एक गंभीर खतरा बनता जा रहा है। इक्कीसवीं सदी में कृत्रिम बुद्धिमत्ता (आर्टिफ़िशियल इंटेलिजेंस या एआई) तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं।

इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है, एआइ के जरिए डीपफेक वीडियो बनाकर सोशल मीडिया पर वायरल किए जा रहे हैं। गलत सूचनाएं, ऑडियो-वीडियो और तस्वीरें फैलाने वालों के हाथों में एआइ ने खतरनाक उस्तरा थमा दिया है, जो राष्ट्रीय सुरक्षा एवं राजनीतिक मुद्दों के साथ व्यक्तिगत छवि को घूमिल करने का हथियार बनकर अनेक चिन्ताओं को बढ़ा रहा है और बड़े संकट का सबब बनता जा रहा है। डीपफेक ने प्रधानमंत्री नरेंद्र मोदी को भी नहीं बक्शा है, उन्हें भी परेशान कर दिया है। उनका एक वीडियो इन दिनों यू-ट्यूब सहित सभी सोशल मीडिया प्लेटफॉर्म्स पर खूब चर्चित हो रहा है, इसमें उनको गरबा करते दिखाया गया है। ये पूरा वीडियो डीपफेक नाम की आर्टिफिशियल इंटेलिजेंस से तैयार किया गया है। इसी तरह देश एवं विदेश की अनेक हस्तियों के अनेक अश्लील एवं राजनीतिक डीपफेक व्यापक स्तर पर प्रसारित हो रहे हैं।

डीपफेक एक ऐसी तकनीक है जिसमे आप कृत्रिम बुद्धिमत्ता की मदद एवं तकनीक से वीडियो, तस्वीरों और ऑडियो में हेरफेर कर सकते है। इस तकनीक की मदद से आप किसी दूसरे व्यक्ति की फ़ोटो या वीडियो पर किसी और का चेहरा लगाकर उसे पूरी तरह से बदल भी सकते है। एक रिपोर्ट के अनुसार इसका सबसे ज्यादा इस्तेमाल लगभग 96 प्रतिशत के आसपास अश्लील सामग्री बनाने में होता है। कुछ लोग इसका इस्तेमाल अपने मर चुके रिश्तेदारों की तस्वीरों को ऐनिमेट करने में भी करते हैं लेकिन अब डीपफेक कंटेंट का इस्तेमाल देश एवं विदेश की राजनीति में भी होने लगा है।

राजनीतिक पार्टियाँ अपने चुनावी प्रचार में इस तकनीक का जमकर इस्तेमाल कर रही है। आम जनता को गुमराह करने एवं बड़ी हस्तियों की छवि एवं प्रतिष्ठा को धूमिल करने में अब इस तकनीक का व्यापक उपयोग होने लगा है। अनेक फिल्मी हस्तियों विशेषतः हीराइनों की अविश्वसनीय अश्लील एवं नग्न वीडियो बड़ी संख्या में आनलाइन आसानी से देखी जा सकती हैं। पब्लिक प्लेटफॉर्म्स पर मौजूद फोटोज की मदद से आसानी से डीपफेक वीडियो बनाया जा सकता है। ऐसे वक्त में जब कोई नौसिखिया भी आसानी से फर्जी वीडियो बनाकर सच और झूठ का फर्क मिटा सकता है, किसी भी वीडियो पर झट से भरोसा ना करें क्योंकि डीपफेक वीडियोज से घिरी वर्चुअल दुनिया में आंखों देखा सबकुछ हमेशा सच नहीं होता।