बड लाइट को बढ़ावा देने वाले बिडेन का डीप फेक वीडियो वायरल हो गया, क्योंकि विशेषज्ञ टेक के जोखिमों की चेतावनी देते हैं

राष्ट्रपति जो बिडेन और रिपब्लिकन फ्रंटरनर डोनाल्ड ट्रम्प के गहरे नकली वीडियो इस बात को उजागर करते हैं कि कैसे 2024 की राष्ट्रपति पद की दौड़ अमेरिकी लोकतंत्र की कृत्रिम बुद्धिमत्ता के लचीलेपन की पहली गंभीर परीक्षा हो सकती है।

बड लाइट को बढ़ावा देने वाले ट्रांस स्टार डायलन मुलवेनी के रूप में बिडेन के वीडियो और एक शांत अल्बुकर्क नेल सैलून के अंदर ट्रम्प को कर चोरी सिखाते हुए दिखाते हैं कि एआई पहचान की चोरी से देश की सबसे शक्तिशाली हस्तियां भी सुरक्षित नहीं हैं।

विशेषज्ञों का कहना है कि आज जहां इन नकली चीजों को पहचानना अपेक्षाकृत आसान है, आने वाले वर्षों में यह असंभव होगा क्योंकि तकनीक इतनी तेज गति से आगे बढ़ रही है।

एआई के वास्तविक दुनिया के नुकसान की झलक पहले ही मिल चुकी है। इस हफ्ते की शुरुआत में, पेंटागन से निकलने वाले काले धुएं की एआई-तैयार की गई छवि ने शेयर बाजार के माध्यम से सदमे की लहरें भेजीं, इससे पहले कि मीडिया फैक्टचेकर्स रिकॉर्ड को सही कर सकें।

विशेषज्ञों का मानना ​​है कि एआई-जनित आवाजों और चेहरों की भयानक सटीकता का मतलब है कि 'गलत सूचनाओं की पहचान करना तेजी से मुश्किल' होगा

इंस्टाग्राम पर @drunkamerica द्वारा पोस्ट किए गए ड्रैग में बिडेन प्री-गेमिंग के एक डीप फेक को पिछले पांच दिनों में 223,107 लाइक मिले। विशेषज्ञों का मानना ​​है कि एआई-जनित आवाजों और चेहरों की भयानक सटीकता का मतलब है कि ‘गलत सूचनाओं की पहचान करना तेजी से मुश्किल’ होगा

वर्जीनिया टेक स्कूल ऑफ कम्युनिकेशन के एक प्रोफेसर केसी मायर्स के अनुसार, ‘विघटनकारी सूचनाओं, विशेष रूप से परिष्कृत एआई-जनित डीप फेक की पहचान करना कठिन होता जा रहा है।’

डीप फेक तकनीक और इसके बढ़ते प्रचलन का अध्ययन कर रहे प्रोफेसर मायर्स ने कहा, ‘इस गलत सूचना का पता लगाने के लिए उपयोगकर्ताओं को किसी भी दावे की सच्चाई की जांच करने के लिए अधिक मीडिया साक्षरता और जानकार होने की आवश्यकता है।’

मायर्स ने कहा, ‘जनरेटिव एआई के लिए लागत बाधा भी इतनी कम है कि अब कंप्यूटर और इंटरनेट वाले लगभग किसी की भी एआई तक पहुंच है।’

मायर्स ने इस भूमिका पर जोर दिया कि तकनीकी कंपनियों और औसत नागरिक दोनों को 2024 में अमेरिकी लोकतंत्र को भारी पड़ने से रोकने के लिए इन अलौकिक, विश्वसनीय नकली लहरों को रोकने में भूमिका निभानी होगी।

मायर्स ने कहा, ‘स्रोतों की जांच करना, दुष्प्रचार के चेतावनी संकेतों को समझना, और जो हम ऑनलाइन साझा करते हैं, उसमें मेहनती होना, दुष्प्रचार के प्रसार से निपटने का एक व्यक्तिगत तरीका है।’ ‘हालांकि, यह पर्याप्त नहीं होने जा रहा है।’

‘ऐसी सामग्री बनाने वाली कंपनियां और सोशल मीडिया कंपनियां जहां गलत सूचना फैलाई जाती है, उन्हें व्यापक गलत सूचना को फैलने से रोकने के लिए कुछ स्तरों पर सुरक्षा उपायों को लागू करने की आवश्यकता होगी।’

डर यह है कि राजनेताओं के ऐसे शब्दों का इस्तेमाल करने वाले वीडियो जो उन्होंने कभी नहीं कहे, मतदाताओं को प्रभावित करने के लिए दुष्प्रचार के एक शक्तिशाली उपकरण के रूप में इस्तेमाल किया जा सकता है।

रूस और दुनिया के अन्य हिस्सों में अमेरिका के प्रति शत्रुतापूर्ण कुख्यात ट्रोल फार्मों का इस्तेमाल सोशल मीडिया पर असंतोष बोने के लिए किया जा रहा है।

बज़फीड और निर्देशक और कॉमेडियन जॉर्डन पील ने प्रौद्योगिकी की खतरनाक क्षमता की ओर ध्यान आकर्षित करने के लिए पूर्व राष्ट्रपति बराक ओबामा के एक अनोखे डीप फेक व्यंग्य को तैयार किए हुए पांच साल हो गए हैं।

‘वे मुझसे इस तरह की बातें कह सकते थे, मुझे नहीं पता, [Marvel supervillain] “किलमॉन्गर सही था,” या “बेन कार्सन धँसी हुई जगह पर है,” पील ने अपने विशेषज्ञ ओबामा छाप में कहा।

पूर्व राष्ट्रपति ट्रम्प के एक डीप फेक स्पूफ ने ब्रेकिंग बैड एंड बेटर कॉल सॉल की श्रृंखला के एएमसी नेटवर्क के छायादार वकील शाऊल गुडमैन पर अपनी आवाज और समानता को आरोपित किया।  YouTube चैनल CtrlShiftFace के वीडियो को पोस्ट किए जाने के बाद से 24,000 लाइक्स मिल चुके हैं

पूर्व राष्ट्रपति ट्रम्प के एक डीप फेक स्पूफ ने ब्रेकिंग बैड एंड बेटर कॉल सॉल की श्रृंखला के एएमसी नेटवर्क के छायादार वकील शाऊल गुडमैन पर अपनी आवाज और समानता को आरोपित किया। YouTube चैनल CtrlShiftFace के वीडियो को पोस्ट किए जाने के बाद से 24,000 लाइक्स मिल चुके हैं

‘या, इसके बारे में कैसे: “बस, राष्ट्रपति ट्रम्प कुल और पूर्ण डिपिट हैं।”

लेकिन यह सिर्फ शिक्षाविद, कॉमेडियन और समाचार आउटलेट ही ये दावा नहीं कर रहे हैं।

प्रमुख नीति विशेषज्ञों ने पिछले कुछ वर्षों में बढ़ती तात्कालिकता के साथ अपनी चिंताओं को प्रतिध्वनित किया है।

काउंसिल ऑन फॉरेन रिलेशंस के लिए लिखने वाले विशेषज्ञों ने 2019 में कहा, ‘एक अच्छी समय पर और सोच-समझकर लिखी गई डीपफेक या डीपफेक की श्रृंखला एक चुनाव में टिप दे सकती है।’

डीपफेक क्या हैं?

डीपफेक के पीछे की तकनीक को 2014 में इयान गुडफेलो द्वारा विकसित किया गया था, जो ऐप्पल के स्पेशल प्रोजेक्ट्स ग्रुप में मशीन लर्निंग के निदेशक और क्षेत्र में अग्रणी थे।

यह शब्द ‘गहरी शिक्षा’ और ‘नकली’ शब्दों के सहयोग से उपजा है और यह कृत्रिम बुद्धिमत्ता का एक रूप है।

प्रणाली चित्रों और वीडियो में एक लक्षित व्यक्ति का अध्ययन करती है, जिससे इसे कई कोणों को पकड़ने और उनके व्यवहार और भाषण पैटर्न की नकल करने की अनुमति मिलती है।

चुनाव के मौसम के दौरान प्रौद्योगिकी ने ध्यान आकर्षित किया, क्योंकि कई भयभीत डेवलपर्स राजनीतिक उम्मीदवारों की प्रतिष्ठा को कम करने के लिए इसका इस्तेमाल करेंगे।

समूह ने यह भी चेतावनी दी कि डीप फेक जल्द ही ‘नागरिक अशांति के लिए प्रमुख शहर में हिंसा भड़का सकते हैं, दुश्मन के कथित अत्याचारों के बारे में उग्रवादी आख्यानों को बल दे सकते हैं, या समाज में राजनीतिक विभाजन को बढ़ा सकते हैं।’

जबकि वर्जीनिया टेक में मायर्स स्वीकार करते हैं कि फोटोशॉप जैसे कार्यक्रम वर्षों से समान रूप से आजीवन जालसाजी करने में सक्षम हैं, उनका कहना है कि अंतर यह है कि एआई को उच्च मात्रा में लगातार बढ़ते परिष्कार के साथ बनाया जा सकता है। “

मायर्स ने कहा, ‘फ़ोटोशॉप नकली छवियों की अनुमति देता है,’ लेकिन एआई परिवर्तित वीडियो बना सकता है जो बहुत सम्मोहक हैं। यह देखते हुए कि दुष्प्रचार अब ऑनलाइन सामग्री का एक व्यापक स्रोत है, इस प्रकार की नकली समाचार सामग्री बहुत व्यापक दर्शकों तक पहुंच सकती है, खासकर यदि सामग्री वायरल हो जाती है।’

काफी हद तक ‘बेटर कॉल ट्रंप’ और बाइडेन बड लाइट वीडियो की तरह।

मायर्स ने तर्क दिया है कि हम निकट भविष्य में दृश्य और लिखित, गंभीर और हास्यपूर्ण दोनों तरह की और अधिक गलत सूचना देखेंगे।

लेकिन मदद – किसी भी प्रकार के सरकारी विनियमन के रूप में – रास्ते में दिखाई नहीं दे रही है।

इस बुधवार, Google के पूर्व सीईओ एरिक श्मिट, जो व्हाइट हाउस में लंबे समय से कार्यरत सलाहकार हैं, जिन्होंने हाल ही में AI पर अमेरिकी राष्ट्रीय सुरक्षा आयोग की सह-अध्यक्षता की थी, ने कहा कि उन्हें संदेह है कि अमेरिका AI में शासन करने के लिए एक नई नियामक एजेंसी को लागू करेगा।

मायर्स ने कहा, ‘मुद्दा यह है कि कानून निर्माता एआई को विनियमित करने के लिए एक नया कानून नहीं बनाना चाहते हैं, इससे पहले कि हम जानते हैं कि तकनीक कहां जा रही है।’

दर्जनों सत्यापित खाते, जैसे WarMonitors, BloombergFeed और RT, उस तस्वीर के साथ गुज़रे जो एक सफेद इमारत के बगल में ज़मीन से काला धुंआ उठता हुआ दिखाती है

दर्जनों सत्यापित खाते, जैसे WarMonitors, BloombergFeed और RT, उस तस्वीर के साथ गुज़रे जो एक सफेद इमारत के बगल में ज़मीन से काला धुंआ उठता हुआ दिखाती है

डीपफेक की पहचान कैसे करें

1. अप्राकृतिक नेत्र गति. आंखों की हलचल जो प्राकृतिक नहीं दिखती – या आंखों की गति में कमी, जैसे कि पलक न झपकना – बड़े लाल झंडे हैं। पलक झपकने की क्रिया को इस तरह दोहराना चुनौतीपूर्ण है जो स्वाभाविक दिखे। किसी वास्तविक व्यक्ति की आंखों की हरकतों को दोहराना भी चुनौतीपूर्ण होता है। ऐसा इसलिए क्योंकि किसी की आंखें आमतौर पर उस व्यक्ति का अनुसरण करती हैं जिससे वे बात कर रहे होते हैं।

2. अप्राकृतिक चेहरे के भाव. जब किसी चेहरे के बारे में कुछ सही नहीं दिखता है, तो यह फेशियल मॉर्फिंग का संकेत दे सकता है। यह तब होता है जब एक छवि को दूसरे पर सिला जाता है।

3. चेहरे की अजीब स्थिति. अगर किसी का चेहरा एक तरफ इशारा कर रहा है और उनकी नाक दूसरी तरफ इशारा कर रही है, तो आपको वीडियो की प्रामाणिकता के बारे में संदेह होना चाहिए।

4. भावना की कमी. आप यह भी देख सकते हैं कि ‘फेशियल मॉर्फिंग’ या इमेज स्टिचिंग के रूप में क्या जाना जाता है, अगर किसी का चेहरा भावनाओं को प्रदर्शित नहीं करता है जो कि वे जो कह रहे हैं उसके साथ जाना चाहिए।

5. अजीब-सा दिखने वाला शरीर या आसन. एक अन्य संकेत यह है कि यदि किसी व्यक्ति के शरीर का आकार प्राकृतिक नहीं दिखता है, या सिर और शरीर की अजीब या असंगत स्थिति है। विसंगतियों का पता लगाना आसान हो सकता है, क्योंकि डीपफेक तकनीक आमतौर पर पूरे शरीर के बजाय चेहरे की विशेषताओं पर केंद्रित होती है।

6. अप्राकृतिक शरीर की गति या शरीर का आकार. यदि कोई पक्ष की ओर मुड़ने या अपना सिर हिलाने पर विकृत या बंद दिखता है, या उनकी हरकतें एक फ्रेम से दूसरे फ्रेम तक झटकेदार और असंबद्ध हैं, तो आपको संदेह होना चाहिए कि वीडियो नकली है।

7. अप्राकृतिक रंग. असामान्य त्वचा टोन, मलिनकिरण, अजीब प्रकाश व्यवस्था, और गलत छाया सभी संकेत हैं कि आप जो देख रहे हैं वह संभवतः नकली है।

8. बाल जो असली नहीं लगते. आपको घुंघराले या उड़ते हुए बाल नहीं दिखेंगे। क्यों? नकली छवियां इन व्यक्तिगत विशेषताओं को उत्पन्न करने में सक्षम नहीं होंगी।

9. दांत जो असली नहीं लगते. एल्गोरिदम अलग-अलग दांत उत्पन्न करने में सक्षम नहीं हो सकते हैं, इसलिए अलग-अलग दांतों की रूपरेखा का अभाव एक सुराग हो सकता है।

10. धुंधलापन या गलत संरेखण। यदि छवियों के किनारे धुंधले हैं या दृश्य गलत हैं – उदाहरण के लिए, जहां किसी का चेहरा और गर्दन उनके शरीर से मिलते हैं – तो आप जान जाएंगे कि कुछ गड़बड़ है।

11. असंगत शोर या ऑडियो। डीपफेक निर्माता आमतौर पर ऑडियो के बजाय वीडियो छवियों पर अधिक समय व्यतीत करते हैं। परिणाम खराब लिप-सिंकिंग, रोबोटिक-आवाज, अजीब शब्द उच्चारण, डिजिटल पृष्ठभूमि शोर, या ऑडियो की अनुपस्थिति भी हो सकता है।

12. धीमा होने पर अस्वाभाविक दिखने वाली छवियां. यदि आप अपने स्मार्टफोन से बड़ी स्क्रीन पर कोई वीडियो देखते हैं या आपके पास वीडियो-संपादन सॉफ़्टवेयर है जो वीडियो के प्लेबैक को धीमा कर सकता है, तो आप ज़ूम इन कर सकते हैं और छवियों की अधिक बारीकी से जांच कर सकते हैं। उदाहरण के लिए, होठों पर ज़ूम इन करने से आपको यह देखने में मदद मिलेगी कि क्या वे वास्तव में बात कर रहे हैं या यदि यह खराब लिप-सिंकिंग है।

13. हैशटैग विसंगतियां. एक क्रिप्टोग्राफ़िक एल्गोरिथ्म है जो वीडियो निर्माताओं को यह दिखाने में मदद करता है कि उनके वीडियो प्रामाणिक हैं। एल्गोरिथ्म का उपयोग पूरे वीडियो में कुछ निश्चित स्थानों पर हैशटैग डालने के लिए किया जाता है। यदि हैशटैग बदलते हैं, तो आपको वीडियो हेरफेर पर संदेह होना चाहिए।

14. डिजिटल फिंगरप्रिंट। ब्लॉकचेन तकनीक वीडियो के लिए एक डिजिटल फिंगरप्रिंट भी बना सकती है। जबकि फुलप्रूफ नहीं है, यह ब्लॉकचैन-आधारित सत्यापन वीडियो की प्रामाणिकता स्थापित करने में मदद कर सकता है। यह ऐसे काम करता है। जब कोई वीडियो बनाया जाता है, तो सामग्री एक बहीखाता में पंजीकृत होती है जिसे बदला नहीं जा सकता। यह तकनीक किसी वीडियो की प्रामाणिकता साबित करने में मदद कर सकती है।

15. रिवर्स इमेज सर्च. एक मूल छवि की खोज, या कंप्यूटर की मदद से एक रिवर्स इमेज सर्च, समान वीडियो का ऑनलाइन पता लगा सकता है ताकि यह निर्धारित करने में सहायता मिल सके कि किसी छवि, ऑडियो या वीडियो को किसी भी तरह से बदल दिया गया है या नहीं। जबकि रिवर्स वीडियो सर्च तकनीक अभी तक सार्वजनिक रूप से उपलब्ध नहीं है, इस तरह के टूल में निवेश करना सहायक हो सकता है।