दुनिया के सबसे बड़े लोकतंत्र के सबसे बड़े और सबसे अहम चुनाव में सच के ऊपर झूठ का, असली के ऊपर नकली का साया मंडरा रहा, इस झूठ और फर्जीवाड़े को संभव बनाती है एआइ और डीपफेक की तेज विकसित होती तकनीक और कई टेक्नोलॉजी कंपनियां, क्या हैं खतरे
सालाना दावोस सम्मेलन से पहले वर्ल्ड इकोनॉमिक फोरम ने इस साल एक रिपोर्ट जारी की जिसका नाम है ग्लोबल रिस्क रिपोर्ट फॉर 2024 जिसमें आने वाले दशक में उन खतरों को गिनवाया गया है, जिसका सामना दुनिया भर के देश करने वाले हैं। खतरों की सूची में सबसे ऊपर फर्जी या विकृत सूचनाओं और गलत सूचनाओं को रखा गया है। यह बात स्वाभाविक लग सकती है, लेकिन अस्वाभाविक बात यह लग सकती है कि फर्जी या विकृत सूचनाओं और गलत सूचनाओं से सबसे ज्यादा जोखिम दुनिया में भारत को बताया गया है। भारत के करीब 97 करोड़ मतदाताओं के बीच मौजूद 82 करोड़ इंटरनेट प्रयोक्ताओं, इनके बीच वॉट्सएप जैसे विवादित मैसेंजर के 40 करोड़ ग्राहकों और सोशल मीडिया पर मौजूद करीब 47 करोड़ लोगों की व्यापक तस्वीर को ध्यान में रखें, तो बात समझ में आ सकती है। शायद इसलिए इस बार होने जा रहे लोकसभा चुनाव के समक्ष मौजूद चुनौतियों में केंद्रीय मुख्य चुनाव आयुक्त ने भी फेक न्यूज और डीपफेक को गिनवाया है। क्या सच है और क्या झूठ, इसका फर्क अगर देश की आधी आबादी को भी आर्टिफिशियल इंटेलिजेंस आधारित तकनीकों के प्रयोग से भुलवाया जा सका, तो संसदीय लोकतंत्र केवल कागज तक सीमित रह जाएगा। केवल दो महीने पहले की बात है जब बरसों पहले गुजर चुके दक्षिण के बड़े राजनेता करुणानिधि अचानक डीपफेक से जिंदा हो गए थे। जनवरी में तमिलनाडु में सत्तारूढ़ द्रमुक की एक शाखा ने एक सम्मेलन आयोजित किया था। उसका एक वीडियो जारी हुआ। उसमें एम करुणानिधि मौजूद थे। अपने ट्रेडमार्क काले चश्मे, सफेद शर्ट और पीले रंग की शॉल ओढ़कर वे अपने बेटे और तमिलनाडु के मुख्यमंत्री एमके स्टालिन के नेतृत्व में राज्य के मौजूदा नेतृत्व की प्रशंसा कर रहे थे। जिसे नहीं पता कि करुणानिधि गुजर चुके हैं वह इसे सही मान लेता। जिन्हें पता है उनके ऊपर भी इस वीडियो की भावनात्मक अपील होती। इस तरह डीपफेक अपना काम कर जाता। इस तरह के वीडियो से मतदाताओं को आसानी से बरगलाया जा सकता है और चुनाव को प्रभावित किया जा सकता है।
हर व्यक्ति डीपफेक के घेरे में
ऐसे फर्जी वीडियो या डीपफेक का चलन पिछले कुछ बरसों के दौरान बढ़ा है, हालांकि भारत के राजनीतिक परिदृश्य में यह अब भी शुरुआती अवस्था में है। इस भुलावे की शुरुआत दसेक साल पहले फोटोशॉप से हुई थी। फिर सोशल मीडिया के साथ जब 2015 के आसपास फेक न्यूज आया, तो देशों को इसके खतरे का अहसास हुआ। अमेरिकी चुनाव को प्रभावित करने में जब फेसबुक पर मुकदमा चला, तो देशों की सत्ताओं को इस तकनीक के अदृश्य लाभ समझ में आए। धीरे-धीरे राजनीतिक दलों ने खुद यथार्थ को विकृत करने, मतदाताओं की धारणा को नकली ढंग से गढ़ने और झूठ फैलाने के तमाम तकनीकी हथकंडे अपना लिए।
अबकी चुनाव से ठीक पहले केंद्र सरकार ने जब फर्जी सूचनाएं नियंत्रित करने के नाम पर एक फैक्ट चेक यूनिट बनाने की अधिसूचना जारी की, तो उसके खिलाफ कुछ लोग सुप्रीम कोर्ट चले गए। शीर्ष अदालत ने मौके की नजाकत को भांपते हुए इस यूनिट के गठन पर रोक लगा दी। अब, जबकि लोकसभा चुनाव सिर पर हैं, तो एक बात बहुत साफ तौर से लोगों को समझ आ रही है कि फेक हो या डीपफेक, इसका लाभ वही उठाता है जो सत्ता में होता है। अतीत इसकी तसदीक करता है।
भारत के चुनावी परिदृश्य में आर्टिफिशियल इंटेलिजेंस का इस्तेमाल सबसे पहले साल 2020 में एक भाजपा नेता ने ही किया था। 2023 के विधानसभा चुनावों के दौरान इसने जोर पकड़ा और अब आगामी लोकसभा चुनाव में भी इसके धड़ल्ले से इस्तेमाल किया जा रहा है। इसका सबसे सहज इस्तेमाल इस रूप में देखा जा सकता है जहां प्रधानमंत्री नरेंद्र मोदी अपनी रैलियों के दौरान लोगों को हिंदी में संबोधित करते हैं और कुछ सेकेंड में वही भाषण उनकी आवाज में तमिल, तेलुगु समेत कई भाषाओं में प्रसारित हो जाता है। इसका बुरा रूप तब दिखता है जब राजनीतिक दल इसका इस्तेमाल चुनाव में एक-दूसरे की छवि खराब करने के लिए करते हैं। हाल में संपन्न विधानसभा चुनावों में शिवराज सिंह चौहान से लेकर सोनिया गांधी और कमलनाथ तक के डीपफेक वीडियो वायरल हो चुके हैं। जनरेटिव एआइ ऐप चैट-जीपीटी को बनाने वाली कंपनी ओपन-एआइ के सीईओ सैम ऑल्टमैन खुद मान चुके हैं कि इसका इस्तेमाल बड़े पैमाने पर गलत सूचना फैलाने के लिए किया जा सकता है। उन्होंने यह बयान 2023 में दिया था और उसी साल उनका यह अनुमान सही साबित हो गया।
असली-नकली का भेद मिटा
30 नवंबर 2023 को जब तेलंगाना विधानसभा चुनाव के दौरान वोटिंग शुरू हुई तो कांग्रेस पार्टी ने सात सेकंड का एक डीपफेक वीडियो सोशल मीडिया पर डाला जिसमें भारत राष्ट्र समिति के नेता केटी रामाराव लोगों से कांग्रेस के पक्ष में वोट करने का आह्वान करते हुए दिखाए गए। यह डीपफेक वीडियो था जिसमें केटी रामाराव की आवाज को क्लोन और चेहरे को मॉर्फ कर के ऐसा वीडियो बनाया गया जो नकली था, लेकिन देखने में बिल्कुल असली लग रहा था। यह वीडियो देखते ही देखते सोशल मीडिया पर जंगल की आग की तरह फैल गया। केटी रामाराव ने वीडियो को लेकर चुनाव आयोग में शिकायत दर्ज कराई लेकिन तब तक वोट डाले जा चुके थे और जब वोटों की गिनती हुई तो नतीजे कांग्रेस पार्टी के पक्ष में आए। यह भारतीय राजनीति में एआइ-जेनरेटेड डीपफेक वीडियो का सबसे ताजातरीन मामला है।
डीपफेक डिटेक्शन में विशेषज्ञता वाली फर्म डीपमीडिया के अनुसार 2023 में वैश्विक स्तर पर सोशल मीडिया पर लगभग पांच लाख फर्जी यानी डीपफेक वीडियो और वॉयस साझा किए गए। यह 2019 की तुलना में 550 प्रतिशत ज्यादा था। आइप्रूव द्वारा किए गए एक सर्वे के मुताबिक 71 प्रतिशत लोगों को यह मालूम भी नहीं है कि डीपफेक वीडियो होता क्या है। ऐसे में जब दुनिया का सबसे बड़ा लोकतंत्र चुनावी मुहाने पर खड़ा है, इस बात को समझना जरूरी हो जाता है कि नेता और पॉलिटिकल पीआर एजेंसियां कैसे इसका इस्तेमाल कर के मतदातओं को बरगला रही हैं।
विकसित तकनीक से बढ़ता खतरा
जनवरी में डीएमके के सम्मेलन में करुणानिधि का डीफेक वीडियो चेन्नै स्थित एआइ फर्म म्यूओनियम ने बनाया था। चुनावों में राजनीतिक दल और पीआर एजेंसियां निजी एआइ कंपनियों को करोड़ों रुपये के ठेके देकर लाखों की संख्या में ऐसे डीपफेक वीडियो बनवा रही हैं। ‘द इंडियन डीपफेकर’ नाम की एक कंपनी चलाने वाले 31 वर्षीय दिव्येन्द्र सिंह जादौन आउटलुक को बताते हैं, “पहले हम राजनीतिक कंटेंट नहीं बनाते थे, लेकिन पिछले साल खत्म हुए विधानसभा चुनावों के दौरान हमें ऐसे कंटेंट बनाने के लिए अचानक बहुत सारे ऑर्डर मिलने लगे। लोकसभा चुनाव में भी हम कुछ पार्टियों के लिए काम कर रहे हैं।”
वे आगे कहते हैं, “ज्यादातर पॉलिटिकल डीपफेक बनाने वाले हमसे दो तरह का कंटेंट बनाने के लिए कहते हैं। पहला, किसी राजनेता की आवाज की क्लोनिंग करके उससे ऐसी बातें कहलवाना, जो उसने कभी नहीं कही, और दूसरा, उसका चेहरा किसी वीडियो में डालना जिससे उसकी छवि खराब हो सकती है, हालांकि कुछ राजनेता इसका इस्तेमाल अपने छवि को सुधारने और जनता से संपर्क साधने के लिए भी करते हैं।” दिव्येन्द्र विधानसभा चुनाव में दो मुख्यमंत्रियों के साथ काम कर चुके हैं।
इस साल की शुरुआत से ही भाजपा और कांग्रेस समेत कई राजनीतिक दलों ने अपने आधिकारिक इंस्टाग्राम हैंडल पर कई बार एआइ-जेनरेटेड कंटेंट को साझा किया। इन सभी वीडियो में प्रतिद्वंद्वी दलों के नेताओं की छवि को धूमिल करने की कोशिश की गई थी। 16 मार्च को भाजपा ने इंस्टाग्राम पर राहुल गांधी की एक फेक तस्वीर साझा की जिसमें कांग्रेस नेता यह कहते हुए दिखाई दे रहे थे, “मैं कुछ नहीं करता।” भाजपा ने हाल ही में एक और छेड़छाड़ किया हुआ वीडियो जारी किया जिसमें विपक्षी नेताओं ममता बनर्जी, अरविंद केजरीवाल और अखिलेश यादव से जुड़ा डीपफेक ऑडियो लगा हुआ था। इससे पहले कांग्रेस के आधिकारिक इंस्टाग्राम हैंडल ने प्रधानमंत्री नरेंद्र मोदी के चेहरे के साथ एक डीपफेक शेयर किया था। हाल ही में कांग्रेस के हैंडल ने मोदी की एक बदली हुई तस्वीर शेयर की जिसमें वे एक महिला पहलवान के पोस्टर के सामने रोते हुए खड़े दिखाई दे रहे थे। ये ऐसे कुछेक उदाहरण हैं जो सामने आए हैं।
राजनीतिक दल हजारों की संख्या में ऐसे सोशल मीडिया हैंडल का इस्तेमाल करते हैं जिनका उनसे कोई सीधा ताल्लुक नहीं होता है, लेकिन वे हैंडल उनकी आइटी सेल द्वारा ही चलाया जाता है। इन हैंडल पर शेयर किए जाने वाले डीपफेक वीडियो की जवाबदेही तय करना मुश्किल हो जाती है। राजस्थान से एक राजनीतिक पीआर एजेंसी चलाने वाली कंपनी के मालिक ने नाम न छापने के शर्त पर आउटलुक को बताया, “हमारे ग्राहक राजनीतिक दल होते हैं। हमारा मुख्य काम उनकी छवि को सुधारना होता है। इसके लिए हम डीपफेक का इस्तेमाल करते हैं। विपक्ष के नेताओं की छवि को कैसे कमजोर किया जा सके, ये भी हमारा काम है। हमारे पास दर्जनों फेसबुक और इंस्टाग्राम पेज हैं जिनके फॉलोवर लाखों में होते हैं। हम ऐसे कंटेंट वहीं शेयर करते हैं।”
टेलिकॉम रेगुलेटरी अथॉरिटी ऑफ इंडिया के मुताबिक देश भर में 116 करोड़ मोबाइल यूजर हैं और करीब 50 फीसदी से ज्यादा आबादी इंटरनेट पर सक्रिय है। ये आंकड़े डीपफेक बनाने और फैलाने वाली कंपनियों के काम को और आसान कर देते हैं। शारदा यूनिवर्सिटी में साइबर सिक्योरिटी और क्रिप्टोलॉजी के प्रोफेसर श्रीकांत आउटलुक हिंदी से कहते है, “एआइ द्वारा संचालित गलत सूचना किसी उम्मीदवार के आपराधिक रिकॉर्ड या वित्तीय धोखाधड़ी के बारे में अफवाहें फैला सकती है। भले ही ये दावे निराधार हों, लेकिन लगातार दोहराए जाने से उम्मीदवार की प्रतिष्ठा को नुकसान पहुंच सकता है और मतदाताओं का भरोसा प्रभावित हो सकता है।”
इसकी एक ताजा बानगी देखिए- यूपी के बाराबंकी से भाजपा सांसद उपेंद्र सिंह रावत को पार्टी ने इस बार फिर से चुनावी मैदान में उतारा था। वे इसकी तैयारियों में जुटे थे कि उनका 4 मार्च को एक वीडियो वायरल होने लगा। नतीजन उन्होंने लोकसभा चुनाव से नाम वापस ले किया और कहा कि जब तक वे निर्दोष साबित नहीं होंगे चुनाव नहीं लड़ेंगे। यह वीडियो डीपफेक था। डीपफेक के चक्कर में प्रत्याशी का टिकट कट गया, पर सवाल है कि गांव में बैठा हुआ एक आम वोटर इस फर्जीवाड़े को पकड़ने में कितना सक्षम है? वह तो वॉट्सएप पर घूम रहे वीडियो को देखकर तत्काल अपनी धारणा बना लेगा। ऐसे में तो एक भले आदमी को समाज की नजर में शैतान और एक बुरे आदमी को महात्मा साबित करना बहुत आसान हो जाएगा। हो सकता है ऐसा हो भी रहा हो और हमें अहसास तक न हो। इस तरह चुनाव में सही की जगह गलत को चुनने का खतरा बढ़ जाता है।
खतरे और भी बढ़ते जा रहे हैं। साइबर एक्सपर्ट जसप्रीत बिंद्रा आउटलुक से कहते हैं, “फर्जी खबरों की पहचान करना अब बहुत मुश्किल है। पहले यह आसान था क्योंकि आप बॉडी पॉस्चर, आई-ब्लिंकिंग और लिप सिंकिंग को देखकर ये अंदाजा लगा सकते थे कि कौन-सी वीडियो डीपफेक हैं लेकिन दुर्भाग्य से, जैसे-जैसे तकनीक आगे बढ़ रही है, डीपफेक और बेहतर होता जा रहा है।”
विष्णु दत्त इनकी बातों को आगे बढ़ाते हुए बताते हैं, “अब एआइ आपके चेहरे के अलावा आपके शरीर का वजन, स्किन टोन आदि पढ़कर तस्वीर तैयार करता है। इसे पहचानना काफी कठिन हो गया है। आने वाले समय में आप कुछ सॉफ्टवेयर पर कुछ शब्द लिखेंगे और चुटकियों में पूरी डॉक्युमेंट्री बनकर तैयार हो जाएगी।”
डीपफेक तकनीक कितनी विकसित हो चुकी है इसको समझाते हुए दिव्येन्द्र कहते हैं कि जब उन्होंने 2020 में इसकी शुरुआत की थी तब डीपफेक बनाने में करीब 7 से 12 दिन लगते थे। आज दो से तीन मिनट में एक कंटेंट तैयार हो जाता है। उस समय वे 60,000 फोटो का डेटा लेकर डीपफेक बनाते थे, लेकिन आज एक फोटो ही काफी है।
अक्षम कानून
एआइ जनरेटेड डीपफेक की चिंताओं से भारत सरकार, निर्वाचन आयोग और न्यायालय भी वाकिफ हैं। सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव डीपफेक को ‘लोकतंत्र के लिए खतरा’ बता चुके हैं। निर्वाचन आयोग भी चुनाव में इसको रोकने के लिए गूगल, चैट-जीपीटी जैसी कंपनियों के साथ बैठकें कर रही है, लेकिन इस सब के बावजूद डीपफेक वीडियो वैसे ही वायरल हो रहे हैं। ऐसे में सवाल उठता है कि क्या भारत के पास ऐसे कानून हैं जो डीपफेक को विनियमित कर सकें? इससे भी बड़ा सवाल यह है कि क्या इस समस्या से कानून बनाकर लड़ना संभव है? जो दल कानून बनाएगा और जो सत्ता उसके अनुपालन का जिम्मेदार होगी वह सही को गलत न मान ले और गलत को सही और उसी हिसाब से कानून की व्याख्या करते हुए न्याय निर्णय दे, यह नहंीं होगा इसकी गारंटी कौन देगा?
जानकारों की मानें तो फिलहाल ऐसे किसी कानून के अभाव में भारत में डीपफेक साइबर क्राइम से निपटने के लिए कई कानूनों को एक साथ जोड़ा जा सकता है, जैसे आइटी कानून की धारा 66डी, 66ई, कॉपीराइट अधिनियम, 1957 और डेटा संरक्षण विधेयक 2021 आदि। इस बारे में इलेक्ट्रॉनिक्स और प्रौद्योगिकी राज्यमंत्री राजीव चंद्रशेखर कहते हैं, “हमने पहले ही बहुत मेहनत की है और अप्रैल 2023 में आइटी नियम बनाए हैं, लेकिन अगर जरूरी हो तो एक नया कानून भी बनेगा।”
भारत ही नहीं, चुनावों में डीपफेक के खतरे से निपटने के लिए बहुत से देशों के पास अच्छी तरह से परिभाषित कानून नहीं हैं। अमेरिका में कई राज्यों ने विशिष्ट कानून बनाए हैं, लेकिन इस साल हो रहे राष्ट्रपति चुनाव में वे डीपफेक को रोकने में सक्षम नहीं हो पाए हैं। डोनाल्ड ट्रम्प से लेकर राष्ट्रपति जो बाइडेन तक के डीपफेक वायरल हो रहे हैं। यूक्रेन में उस वक्त अराजकता की स्थिति फैल गई जब आम चुनाव के दौरान राष्ट्रपति व्लादीमिर जेलिंस्की का ऐसा डीपफेक वायरल हुआ जिसमें वे अपनी सेना से रूस के सामने समर्पण करने की बात कहते नजर आए थे। इसी तरह पाकिस्तान में हाल ही में हुए आम चुनाव में तब सनसनी फैल गई जब जेल में बंद पाकिस्तान के पूर्व प्रधानमंत्री इमरान खान का मतगणना के तुरंत बाद एक ‘विजयी संबोधन’ वायरल होने लगा। रूस, बांग्लादेश और इंडोनेशिया में भी चुनावों के दौरान डीपफेक का इस्तेमाल धड़ल्ले से हुआ। जानकारों का कहना है कि ऐसा इसलिए हो रहा है क्योंकि किसी भी देश के पास एआइ और डीपफेक को रोकने के लिए ठोस कानून नहीं हैं।
यूरोपीय यूनियन विश्व का पहला समग्र एआइ कानून ला रहा है। इस कानून में उल्लंघन के प्रकार के आधार पर कंपनियों के ऊपर 75 लाख यूरो या टर्नओवर के 1.5 प्रतिशत से लेकर 3.5 करोड़ यूरो या वैश्विक टर्नओवर के 7 प्रतिशत तक जुर्माना लग सकता है। इसमें ऐसे नियम भी हैं जो एआइ-जेनरेटिव वीडियो के प्रसारण से पहले उसकी वॉटर-मार्किंग करने को कहते हैं, हालांकि साइबर फोरेंसिक्स के जानकार विष्णु दत्त के मुताबिक वॉटरमार्किंग बड़े स्तर पर वीडियो प्रोडक्शन में ही काम आ सकती है।
कंपनियों की जिम्मेदारी
16 फरवरी, 2024 को म्यूनिख सुरक्षा सम्मेलन में अडोबी, एमजॉन, गूगल, आइबीएम, मेटा, माइक्रोसॉफ्ट, ओपन एआइ, टिकटॉक और एक्स समेत 20 बड़ी प्रौद्योगिकी कंपनियों ने हिस्सा लिया। इन सभी ने इस साल दुनिया भर में हो रहे चुनावों में भ्रामक एआइ कंटेंट के दखल को रोकने में मदद देने का संकल्प लिया। ये कंपनियां अपनी बातों को लेकर कितनी गंभीर हैं, इसका अंदाजा इसी बात से लगाया जा सकता है कि म्यूनिख सुरक्षा सम्मेलन में डीपफेक को रोकने की प्रतिबद्धता दोहराने के बाद चैट-जीपीटी बनाने वाली कंपनी ओपन एआई ने एक और मॉडल लॉन्च किया जिसमें यूजर प्रॉम्प्ट के आधार पर वीडियो तैयार कर सकते हैं। इसे ‘सोरा’ नाम दिया गया है। आप बस एप्लीकेशन में कुछ टेक्स्ट डालेंगे और उसके आधार पर वीडियो तैयार हो जाएगा। जाहिर है, इससे डीपफेक को और बढ़ावा मिलेगा। इतना ही नहीं, कंपनी आने वाले दिनों में एक ऐसा टूल लॉन्च करने जा रही है जो आर्टिफिशियल जनरल इंटेलिजेंस (एजीआइ) के काफी करीब होगा। एजीआइ का मतलब अगर आसान शब्दों में समझें तो यह इंसानी दिमाग से बेहतर या बिल्कुल उसके जैसा ही काम करेगा। उधर एक्स पर फेक पोस्ट पर लगाम लगाने का दावा करने वाले इसके मालिक इलॉन मस्क अपनी कंपनी न्यूरालिंक से इंसानी दिमाग को ही नियंत्रत करने में लगे हुए हैं।
एक ओर इंसानी दिमाग पर तकनीकी कंपनियों का कब्जा और दूसरी ओर इंसानी धारणा पर देशों की निरंकुश होती सरकारों का कब्जा- ये दोनों ही कोशिश मानव सभ्यता को आधुनिक राष्ट्र-राज्य की सबसे बड़ी नेमतों लोकतंत्र और उसके बुनियादी मूल्यों समानता, स्वतंत्रता, न्याय और बंधुत्व को निगलती जा रही हैं। आगामी लोकसभा चुनावों के मद्देनजर फिलहाल कुछ संस्थाओं के गठजोड़ मिसिइनफॉर्मेशन कॉम्बैट अलायंस ने एक डीपफेक एनालिसिस यूनिट 25 मार्च को लॉन्च की है। चुनावों के दौरान एआइ से पैदा हुए सिंथेटिक मीडिया की जांच के लिए इसने मेटा के साथ मिलकर एक वाट्सएप चैनल बनाया है जहां आम लोग वॉयस नोट और वीडियो भेजकर उनकी सत्यता को जांच सकते हैं। विडम्बना यह है कि सदिच्छा से उपजा यह प्रयास झूठ फैलाने के सबसे बड़े कारखाने यानी मेटा के वॉट्सएप पर निर्भर है।
71% लोगों को मालूम भी नहीं है कि डीपफेक वीडियो होता क्या है। ऐसे में जब दुनिया का सबसे बड़ा लोकतंत्र चुनावी मुहाने पर खड़ा है, यह समझना जरूरी हो जाता है कि नेता और पॉलिटिकल पीआर एजेंसियां कैसे इसका इस्तेमाल कर वोटरों को बरगला रही हैं
550% बढ़ गया चार साल में डीपफेक का ट्रैफिक। डीपफेक डिटेक्शन में विशेषज्ञता वाली फर्म के अनुसार 2023 में वैश्विक स्तर पर सोशल मीडिया पर लगभग पांच लाख फर्जी वीडियो और वॉयस साझा किए गए। यह 2019 की तुलना में 550 प्रतिशत ज्यादा था
60,000 फोटो का डेटा मिलाकर आज से चार साल पहले एक डीपफेक बनाया जाता था, लेकिन आज इसके लिए एक फोटो ही काफी है। इसी तरह 2020 में डीपफेक बनाने में करीब 7 से 12 दिन लगते थे लेकिन आज दो से तीन मिनट में एक कंटेंट तैयार हो जाता है