Deepfake : काही दिवसांपासून डीपफेकच्या (Deepfake) गैरवापराबद्दल सर्वच स्तरावरुन चिंता व्यक्त केली जात आहे. डीपफेकला अनेक अभिनेते-अभिनेत्री आणि राजकीय नेते देखील बळी पडले आहेत. माजी क्रिकेटपट्टू सचिन तेंडूलकरची(Sachin Tendulkar) लेक सारा तेंडूलकर(Sara Tendulkar) आणि अभिनेत्री रश्मिका मंदाना(Rashmika Mandana) डीपफेकच्या जाळ्यात येताच पंतप्रधान नरेंद्र मोदी सरकार अॅक्शन मोडमध्ये उतरल्याचं पाहायला मिळालं आहे. डीपफेकला आळा घालण्यासाठी मोदी सरकारने तत्काळ बैठक घेत उपाययोजना करण्याचा निर्णय घेतला आहे. डीपफेकला आळा घालण्यासाठी लवकरच नियम लागू करण्याचा निर्णय या बैठकीत घेण्यात आल्याची माहिती केंद्रीय मंत्री अश्विनी वैष्णव(Ashwini Vaishnav) यांनी दिली आहे.
President Draupadi Murmu घेणार शनि दर्शन; ‘या’ दिवशी येणार अहमदनगर दौऱ्यावर
पंतप्रधान नरेंद्र मोदी (Narendra Modi) यांचा देखील डीपफेक तयार केला होता. पंतप्रधान नरेंद्र मोदींनी G20 वर्च्युअल समिटमध्ये (G20 Virtual Summit) एआयच्या नकारात्मक वापराबाबत चिंता व्यक्त केली होती. ‘डीपफेक’मुळे मोठे संकट ओढवू शकते, असा इशारा पंतप्रधान मोदींनी गेल्या शुक्रवारी दिला होता. डीपफेक समाजात असंतोष निर्माण करू शकतो. त्यांनी प्रसारमाध्यमांना जनजागृती करण्याचे आणि त्याच्या गैरवापराबद्दल लोकांना शिक्षित करण्याचे आवाहन केले. या मुद्द्यावर सरकारने नुकतीच कंपन्यांना नोटीस बजावली होती.
Operation Silkyara : बचावकार्याने वेग धरला; मजुरांच्या सुटकेसाठी NDRF जवानांचा बोगद्यात प्रवेश
अश्विनी वैष्णव म्हणाल्या, आज सर्व सोशल मीडिया प्लॅटफॉर्मवर बैठक बोलावली होती. सर्वांशी चर्चा झाली आणि सर्वांनी डीपफेकचा धोका आणि त्याचे गांभीर्य मान्य केले आहे. हा एक मोठा सामाजिक धोका म्हणून समोर आला असून डीपफेकप्रकरणी आम्हाला 4 गोष्टींवर एकत्र काम करावे लागणार आहे.
आम्ही आजच नियमांचा मसुदा तयार करण्यास सुरुवात करू आणि थोड्याच वेळात ‘डीपफेक’ला आळा घालण्यासाठी जाण्यासाठी नवीन नियम लागू होणार आहेत. फ्रेमवर्कमध्ये सुधारणा करण्याच्या किंवा नवीन नियम किंवा नवीन कायदे आणण्याच्या स्वरूपात असणार असल्याचंही वैष्णव यांनी स्पष्ट केलं आहे.
तसेच यासंदर्भात पुढील बैठक डिसेंबरच्या पहिल्या आठवड्यात होणार आहे. आज झालेल्या निर्णयांवर अधिक चर्चा होणार आहे. मसुद्यात काय समाविष्ट केले पाहिजे यावरही चर्चा केली जाईल. डीपफेक’मध्ये आर्टिफिशियल इंटेलिजन्स (एआय) वापरून, फोटो किंवा व्हिडिओमध्ये उपस्थित असलेल्या व्यक्तीच्या जागी दुसरे कोणीतरी दाखवले जाते. त्यात इतकं साम्य आहे की खऱ्या आणि खोट्यात फरक करणं खूप अवघड असल्याचंही ते म्हणाले आहेत.