Video: KYC में डीपफेक वीडियो के खतरे से कैसे बचें? समझिए एक्सपर्ट से

तेजी से बदलती डिजिटल दुनिया में ईकेवाईसी (EKYC) का जमाना है लेकिन अब उसमें भी वीडियो केवाईसी (video KYC) आ चुका है और यह वीडियो केवाईसी खतरनाक है. डीपफेक वीडियो (deep fake video) बनाकर आसानी से किसी को भी, यानी बैंकों को, NBFC को बीमा कंपनी को या फिर आम आदमी को भी ठगा जा सकता है. एआई (AI) के कमाल ने डीपफेक वीडियो का एक खतरा पैदा कर दिया है. डीपफेक वीडियो के खतरे से कैसे बचें? डीपफेक वीडियो को कैसे पहचान सकते हैं? तकनीकी विशेषज्ञ और Pilab के फाउंडर सीईओ अंकुश तिवारी ने NDTV को इसके बारे में बताया.
 
अंकुश तिवारी ने बताया कि कैसे वीडियो में आसानी से पल भर में किसी व्यक्ति को किसी और का रूप दिया जा सकता है. एआई के माध्यम से किसी का चेहरा कैसे बदला जा सकता है? उन्होंने कहा कि, एआई के माध्यम से किसी और का चेहरा लगाना और सब ऐसे मर्ज करना कि कोई आम आदमी देखकर फर्क ही ना कर पाए बहुत आसान हो गया है. इसको करने के लिए आपको ना बहुत ज्यादा सॉफ्टवेयर की जरूरत है ना आपको बहुत महंगे कम्प्यूटर की जरुरत है. आपके पास बस करीब एक लाख रुपए का लैपटॉप होना चाहिए जिसमें कोई GPU हों और आपके पास ओपन सोर्स के ही सॉफ्टवेयर उपलब्ध होने चाहिए. इसको इस्तेमाल करके हम आपको पल भर में शाहरुख खान या पल भर में सचिन तेंदुलकर बना सकते हैं. 

डिजिटिलाइजेशन के कारण आते रहते हैं नए खतरे

इसको लेकर खतरे के बारे में पूछने पर उन्होंने कहा कि, देखिए हम सबको पता है कि भारत का फिनटेक कितना पावरफुल है. हमने कई जनरेशन को लीप किया है. पर डिजिटिलाइजेशन के कारण कुछ नए नए खतरे आते रहते हैं. अभी वीडियो केवाईसी अपने फिनटेक सिस्टम का ही इंटीग्रल पार्ट है जो बहुत सारी चीजों में यूज होता है, नया एकाउंट खोलने में यूज होता है, नए लोन देने के लिए यूज होता है, नए क्रेडिट कार्ड के लिए यूज होता है. 

उन्होंने कहा कि, आप सोचिए कि जैसे आप शाहरुख खान या सचिन तेंदुलकर बन गए, सोचिए कि मुझे पता है कि सुनील जी की क्रेडिट रेटिंग बहुत अच्छी है… मैं आपका चेहरा लगाकर और एक वीडियो केवाईसी यदि बैंक का पास कर लूं… तो मैंने एक गलत एकाउंट खोल लिया और मैं आपकी क्रेडिट रेटिंग के हिसाब से फिर लोन या क्रेडिट कार्ड (credit card) भी ले लूंगा.  तो इस प्रकार से बैंकों का जो वीडियो केवाईसी सिस्टम है वह डीपफेक के कारण खतरे में आ गया है. 

उन्होंने कहा कि, पहले मुश्किल होती थी, महंगी मशीनें लगती थीं, स्किल्स चाहिए था.. आजकल ना आपको स्किल्स चाहिए, ना महंगी मशीन चाहिए. इसके कारण अब हमें जरूरत है कि क्या कुछ सोचा जाए, वीडियो केवाईसी को रोका जाए.. नहीं, लेकिन हम अब उसको मजबूत कर रहे हैं. 

लोहा ही लोहे को काटेगा 

डीपफेक वीडियो का से बचने का तरीका क्या है? इस सवाल पर अंकुश तिवारी ने कहा कि, लोहा लोहे को काटता है. यह एआई से पैदा हुई समस्या है. हम AI का ही इस्तेमाल करके डिफेंसिव टेक्नीक  बना रहे हैं. इससे हम यह पता लगा रहे हैं कि कहां पर AI मेनीपुलेशन हुआ है, वीडियो स्ट्रीम में, इमेज में या फिर ऑडियो में.. हमारा प्रोडक्ट है अथेंटिसी फ्राम पाईलेब्स, जो यह एनालाइज करके आपको रिपोर्ट देता है कि क्या यह वीडियो जेनुइन है या फेक है. 

उन्होंने कहा कि हम इसमें मल्टीपल पैरामीटर एनालाइज करते हैं. हमारा टूल एनालाइज करके बहुत ही डिटेल रिपोर्ट देता है, ऑडियो की और वीडियो की भी. तो कोई भी वीडियो केवाईसी में इसे चेक करेगा और जब यह बोलेगा फेक तो वहां रुक जाएगा. 

पहले कहा जाता था कि सुनी हुई बात पर भरोसा मत करिए आंखों से देखिए, लेकिन अब आंखों को भी धोखा दिया जा रहा है. आंखों से देखने पर भी धोखा हो सकता है इसलिए आंखों पर भरोसा मत कीजिए जो प्रमाणित किया गया है उसी पर भरोसा कीजिए.

यह भी पढ़ें-

रियल या एडिटेड वीडियो को ‘डीपफेक’ के रूप में किया जा रहा लेबल, राजनीति में हो रहा AI का इस्‍तेमाल

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top