इस साल, भारत में लोकसभा चुनावों को लोगों के बीच मजबूत करने के लिए राजनीतिक दलों द्वारा काफी ध्यान आकर्षित किया गया है। हालांकि, चुनावों की शुरुआत से पहले ही,AI (आर्टिफिशियल इंटेलिजेंस) का उपयोग राजनीतिक दलों और नेताओं के लिए एक चुनौती के रूप में सामने आया है। देश-विदेश में, कई प्रमुख व्यक्तित्व गहरी संदेहात्मक वीडियो और ऑडियो के शिकार बन चुके हैं, जिससे उनकी विश्वसनीयता पर प्रतिक्रियाएँ हो रही हैं।
पिछले साल सितंबर में, स्लोवाकिया में सामान्य चुनावों के दौरान, प्रोग्रेसिव स्लोवाकिया पार्टी के नेता, सिमका, चुनाव से बस दो दिन पहले ही एक वायरल वीडियो के कारण हार गए। वीडियो में उन्होंने गलती से ऐसा दावा किया कि चुनाव जीतने पर वह बीयर की कीमत दोगुनी करेंगे। वास्तव में, सिमका ने ऐसी कोई घोषणा नहीं की थी, बल्कि किसी ने डीपफेक तकनीक का उपयोग करके एक नकली वीडियो को फैलाया था। जब सच्चाई जनता तक पहुंची, तब तक नुकसान हो चुका था। यह घटना भारतीय संदर्भ से दूर लग सकती है, लेकिन डीपफेक के खतरे की धारा यहां भी राजनीतिक दलों और नेताओं के चारों ओर बढ़ रही है, जिसमें कई समान मामले पहले ही सामने आ चुके हैं।
तकनीक के इस युग में, इंटरनेट, मोबाइल फोन और ऑनलाइन मीडिया ने प्रचार-प्रसार की गति को तेज़ किया है, जबकि राजनीतिक एंटिटीज को संभावित जोखिमों का सामना करना पड़ा है। पहले तस्वीरों या वीडियों को छेड़छाड़ करने के मामले स्वीकार्य थे, लेकिन एआई के नवीनीकरणों ने ऐसी उत्पीड़न को अब वास्तविकता से अलग कर दिया है। पूर्व मुख्यमंत्री राव भी डीपफेक तकनीक के शिकार बन गए हैं।
यद्यपि स्लोवाकिया में घटना बाहरी विषय के रूप में लग सकती है, हाल ही में तेलंगाना में एक समान मामला हुआ। पिछले नवंबर में राज्य चुनावों के दौरान, बीआरएस पार्टी के नेता और
तब के मुख्यमंत्री, चंद्रशेखर राव, के खिलाफ एक डीपफेक वीडियो सामने आया, जिसमें उन्होंने माना कि कांग्रेस पार्टी को समर्थन देने के लिए मतदाताओं को प्रेरित किया जा रहा है। दल ने उनके खिलाफ डीपफेक तकनीक के दुरुपयोग के मामले में पुलिस में शिकायत दर्ज की। इसके अलावा, राजस्थान में चुनावों के दौरान, व्हाट्सएप के माध्यम से मतदाताओं को रिझाने के लिए स्वतंत्र कॉल किए गए, जो पूर्व मुख्यमंत्री अशोक गहलोत की शिकारता को नकली कर रहे थे, और मतदान के लिए उन्हें प्रेरित किया जा रहा था। हाल ही में, संयुक्त राज्य अमेरिका में भी राष्ट्रपति जो बाइडन की नकली आवाज में एक डीपफेक वीडियो जारी किया गया था।
इन घटनाओं के प्रकाश में, राजनीतिक कार्यकर्ताओं के लिए डीपफेक तकनीक द्वारा प्रतिबंध और सतर्कता का अभ्यास करना अत्यंत आवश्यक है। निर्वाचन प्रक्रियाओं की अखंडता की रक्षा और सार्वजनिक को सटीक जानकारी का प्रसार करना राष्ट्र के लोकतांत्रिक संरचना को बनाए रखने के लिए महत्वपूर्ण है।