‘एआय’चे राजकीय आव्हान

-प्रा. डॉ. सुधीर अग्रवाल

आगामी लोकसभेसाठी सर्वच राजकीय पक्षांचे नेते जनतेमध्ये आपले स्थान मजबूत करण्यासाठी अहोरात्र प्रयत्न करीत आहेत. मात्र, निवडणुकीपूर्वी कृत्रिम प्रज्ञेचा (एआय) गैरवापर ही राजकीय पक्ष आणि नेत्यांसाठी एक मोठी डोकेदुखी ठरत आहे. सोशल मीडिया हा अशा गैरप्रकारांचा मोठा वाहक आहे आणि ‘राजकीय टूल’ म्हणून एआयचा दुरुपयोग होताना दिसतो आहे. केवळ बदनामी करणे अथवा गैरसमज, भ्रम निर्माण करण्याची पायरी ओलांडून अनेकांची आयुष्ये उद्ध्वस्त करण्याकडे हे तंत्रज्ञान सहज जाऊ शकते. सध्या तरी त्यावर नियंत्रण ठेवणे सर्वांनाच अवघड जात असल्याचे दिसत आहे. जगभरात याची अनेक उदाहरणे आहेत.

गेल्या वर्षी सप्टेंबरमध्ये सोव्हिएत रशियामध्ये निवडणुका झाल्या. येथील प्रोग्रेसिव्ह स्लोव्हाकिया पक्षाचे नेते सिमेका हे त्या निवडणुकीत पराभूत झाले. त्याचे महत्त्वाचे कारण म्हणजे निवडणुकीआधी दोन दिवस त्यांचा एक व्हिडीओ मोठ्या प्रमाणात व्हायरल झाला होता. निवडणूक जिंकल्यास बिअरची किंमत दुप्पट करू, असे सिमेका म्हणत असल्याचे या व्हिडीओमध्ये दिसत होते. वास्तविक, सिमेका यांनी अशी कोणतीही घोषणा केली नव्हती. ही सर्व करामत होती एआय तंत्रज्ञानाची. त्या बनावट व्हिडीओचे सत्य लोकांपर्यंत पोहोचण्याआधीच सिमेका आणि त्यांच्या पक्षाचे मोठे नुकसान झाले होते. ही घटना दूरच्या देशामधील असली तरी आपल्याकडे लोकसभा निवडणुकीतही अशाच पद्धतीचा खोटा प्रचार होण्याची भीती सर्वच राजकीय पक्षांना वाटत आहे.

खरे व खोट्याची मिसळ

भारतात राजकीय पक्ष आणि नेत्यांना असलेला डीपफेकचा धोका वाढत चालला आहे. याची अनेक प्रकरणे येथेही समोर आली आहेत. तंत्रज्ञानाच्या युगात इंटरनेट, मोबाइल, अॅप्स यांनी प्रचार माध्यमांना गती दिली. निवडणुकीत तळपत्या उन्हापासून नेत्यांचे काही प्रमाणात संरक्षण केले. मात्र, आता याच तंत्रज्ञानाचे तोटेही समोर येऊ लागले आहेत. आत्तापर्यंत फोटो किंवा व्हिडीओ यांत फेरफार केल्याची प्रकरणे समोर येत होती; पण, एआयने या फसवणुकीला इतके बारकावे दिले आहेत की, खरे काय आणि खोटे काय हे ओळखणे अशक्य होऊन बसते.

तेलंगणमध्ये नोव्हेंबरमध्ये विधानसभा निवडणुका झाल्या. त्यावेळी बीआरएस पक्षाचे प्रमुख आणि राज्याचे तत्कालीन मुख्यमंत्री के. चंद्रशेखर राव यांचाही एक डीपफेक व्हिडीओ तयार करण्यात आला होता. काँग्रेसला मतदान करा, असे सांगणारे राव त्यात दिसत होते. या डीपफेक व्हिडीओची बीआरएसने पोलिसात तक्रारही दाखल केली होती. राजस्थानमध्ये झालेल्या निवडणुकीतही मतदारांना आकर्षित करण्यासाठी माजी मुख्यमंत्री अशोक गेहलोत यांच्या आवाजाचा फेक ऑडिओ तयार करण्यात आला होता. व्हॉट्सॲपद्वारे मतदारांना नावाने कॉल करण्यासाठी एआयचा वापर करण्यात आला होता.

याशिवाय, नुकताच केंद्रीय गृहमंत्री अमित शहा यांचा एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओमध्ये अमित शहा हे एससी, एसटी, ओबीसी यांच्यासाठी असणारे आरक्षण रद्द करण्याबाबत बोलत असल्याचे दाखवण्यात आले आहे. या व्हिडीओची चौकशी केली असता हा तो बनावट असल्याचे आढळून आले.

खोट्या व्हिडीओंची चलती

गृहमंत्री अमित शहा यांनी एससी, एसटी किंवा ओबीसी आरक्षण संपवण्याबाबत कोणतेही वक्तव्य केलेले नाही. संबंधित व्हिडीओ पूर्णपणे बनावट, खोटा आहे. यापूर्वीच्या भाषणांदरम्यान शहा म्हणाले होते की, सरकार स्थापन होताच मुस्लिम समाजाला दिलेले घटनाबाह्य आरक्षण काढून टाकण्यात येईल. हा फेक व्हिडीओ महाविकास आघाडीतील युवक काँग्रेस, राष्ट्रवादी काँग्रेस (शरद पवार) पक्षांच्या विविध जिल्ह्यांचे एक्स, इंस्टाग्राम, फेसबुक पेज तसेच विविध पक्ष, सेल आघाडीच्या पदाधिकाऱ्यांच्या एक्स अकाउंटवरून प्रसारित करण्यात आला आहे.

डीपफेकने बनवलेला व्हिडीओ अर्थातच मूळचा नसतो. बनावट व्हिडीओ पाहून प्रश्न पडतो की, आवाजाची नक्कल इतकी अचूक कशी करता येते? तर, हा सगळा व्हॉइस ट्रेडिंगचा खेळ आहे. व्हॉइस क्लिनिंगच्या माध्यमातून अचूक जुळेल, अशा पद्धतीने आवाज तयार केला जातो. पण तरीही या व्हिडीओतला आवाज लक्षपूर्वक ऐकला तर तो कृत्रिम असल्याचे लक्षात येऊ शकते. परंतु मनात शंकाच जर आली नाही तर तो आवाज खरा असल्याचे गृहित धरले जाते आणि बहुतांशतः तसेच होताना दिसते.

मतदारांना भ्रमित करण्यासाठी

वरील काही घटना लक्षात घेता असे दिसून येते की निवडणुकांमध्ये विरोधकांना हानी पोहोचवण्याच्या किंवा मतदारांना आपल्या बाजूने आकर्षित करण्याच्या हेतूने डीपफेकचा वापर झपाट्याने वाढताना दिसत आहे. अशावेळी जगातील सर्वांत मोठ्या लोकशाहीच्या - म्हणजेच भारताच्या निवडणुका डीपफेक्सपासून दूर ठेवता येणेही अशक्य दिसत आहे.

कोणत्याही निवडणुका मुद्दे, उमेदवाराची समाजामधील प्रतिमा यावरून लढविल्या जातात. म्हणजे तशी अपेक्षा तरी असते. मात्र, या दोन्ही गोष्टी नष्ट करण्याची क्षमता डीपफेकमध्ये आहे. भारतामध्ये ९० कोटींहून अधिक मतदार आहेत. यातील जवळपास ८० टक्के मतदारांकडे इंटरनेट सक्षम मोबाइल फोन आहेत. अशा वेळी डीपफेकची भीती अधिक प्रमाणात आहे. मतदानाला काही तास शिल्लक असताना असे डीपफेक ऑडिओ किंवा व्हिडीओ व्हायरल झाल्यास त्याचा फटका उमेदवारांना बसणार, हे निश्चित आहे. उमेदवार नंतर खुलासे देतीलही, पण तोपर्यंत वेळ निघून गेलेली असेल. एआय आणि डीपफेकच्या मदतीने लोकांची छायाचित्रे, व्हिडीओ आणि ऑडिओ अशा प्रकारे हाताळले जात आहेत की प्रत्येक जण हैराण आणि त्रस्त झाला आहे.

आता परिस्थिती अशी आहे की, केवळ सामान्य जनताच नाही तर अनेक सेलिब्रिटी आणि खुद्द देशाचे पंतप्रधान नरेंद्र मोदी हे देखील डीपफेकपासून वाचलेले नाहीत. आत्तापर्यंत पंतप्रधान नरेंद्र मोदी यांचेही अनेक बनावट व्हिडीओ समोर आले आहेत. पंतप्रधान नरेंद्र मोदी यांनीही डीप फेक हा मोठा धोका असल्याचे सांगितले आहे. केंद्र सरकारने डीपफेकच्या मुद्द्यावर ‘शून्य सहनशीलता’ धोरण स्वीकारले आहे. अशा परिस्थितीत कोणी असे केले तर त्या व्यक्तीवर कडक कारवाई केली जाईल, असेही मोदींनी स्पष्ट केले आहे. केवळ भारतातच नाही तर जगात असे अनेक देश आहेत जे डीपफेकच्या विरोधात ठोस पावले उचलत आहेत. परंतु आता हे तंत्रज्ञान नियंत्रणात ठेवणे अवघड आहे. कोणत्याही तंत्रज्ञानाचा वापर करण्यामागे अखेर मानवी बुद्धीच असते आणि मानवाचा कल गैरवापराकडे अधिक असतो. त्यामुळेच, सध्याच्या काळात, तसेच येणाऱ्या भविष्यकाळात या आव्हानाचा सामना करणे, हे महत्त्वाचे काम आहे. आत्ता निवडणूक प्रचारामध्ये एआयच्या करामतींची काही प्रमाणात चुणूक दिसली आहे. तो एक इशाराच आहे. या इशाऱ्यापासून योग्य तो धडा घेऊन विविधांगी उपाययोजना करण्याची गरज आहे. तशी ती केली नाही तर सत्य काय आणि असत्य काय, हेच कळेनासे होईल. तसेच, असत्यामुळे समाजात अशांती निर्माण होण्याचाही धोका वाढेल.

अशाच अधिक बातम्या वाचण्यासाठी भेट द्या महाराष्ट्र टाइम्सला. ताज्या बातम्या, शहर, देश, अर्थ, क्रीडा, भविष्य आणि लाइफस्टाईल संदर्भातील सर्व बातम्यांचे अपडेट्स मिळवा. व्हिडिओ पाहण्यासाठी मराठी TimesXP ला भेट द्या.

2024-05-04T06:16:49Z dg43tfdfdgfd