पिछले कुछ समय में आर्टिफिशियल इंटेलिजेंस ने डिजिटल दुनिया को पूरी तरह बदल दिया है। अब किसी भी व्यक्ति की आवाज, चेहरा या वीडियो कुछ ही मिनटों में तैयार किया जा सकता है। नेताओं के फर्जी भाषण, फिल्मों के नकली दृश्य और आम लोगों के साथ छेड़छाड़ किए गए वीडियो सोशल मीडिया पर वायरल होकर भ्रम और विवाद पैदा कर चुके हैं। सरकार का मानना है कि अगर समय रहते सख्त नियम नहीं बनाए गए, तो गलत सूचना, ऑनलाइन धोखाधड़ी और निजता के उल्लंघन के मामले कई गुना बढ़ सकते हैं। इसी पृष्ठभूमि में भारत सरकार ने कानूनी ढांचे को मजबूत करने का फैसला लिया है, ताकि AI-जनरेटेड और डीपफेक कंटेंट पर प्रभावी नियंत्रण स्थापित किया जा सके।
किस कानून में हुआ बदलाव
Ministry of Electronics and Information Technology ने Information Technology (Intermediary Guidelines and Digital Media Ethics Code) Rules, 2021 में महत्वपूर्ण संशोधन जारी किए हैं। इन संशोधनों का मुख्य उद्देश्य AI से बने या बदले गए कंटेंट, जिसे तकनीकी भाषा में सिंथेटिक कंटेंट कहा जाता है, को नियंत्रित करना है।
नए नियमों के तहत अब कोई भी डिजिटल प्लेटफॉर्म AI-जनरेटेड वीडियो, इमेज, ऑडियो या टेक्स्ट को बिना स्पष्ट लेबल के प्रकाशित नहीं कर सकेगा। यदि कंटेंट वीडियो के रूप में है, तो लेबल इस तरह प्रदर्शित करना होगा कि वह उपयोगकर्ता की नजर से छूट न सके। इसके लिए स्क्रीन के एक हिस्से को तय करने की बात कही गई है, जिससे पारदर्शिता सुनिश्चित हो सके।
24 घंटे में कार्रवाई अनिवार्य
संशोधित नियमों के अनुसार यदि किसी AI-जनरेटेड कंटेंट की शिकायत दर्ज होती है और वह गैरकानूनी, भ्रामक या नुकसानदायक पाया जाता है, तो संबंधित सोशल मीडिया प्लेटफॉर्म को 24 घंटे के भीतर उसे हटाना या ब्लॉक करना होगा।
यह समयसीमा बाध्यकारी होगी। यदि कोई प्लेटफॉर्म देरी करता है या कार्रवाई नहीं करता, तो उसे भी जवाबदेह माना जाएगा। इससे यह स्पष्ट हो गया है कि अब प्लेटफॉर्म केवल मध्यस्थ की भूमिका का हवाला देकर जिम्मेदारी से बच नहीं सकेंगे।
प्लेटफॉर्म की जिम्मेदारी हुई तय
सरकार ने यह भी स्पष्ट किया है कि सोशल मीडिया कंपनियां अब यह तर्क नहीं दे सकतीं कि उन्हें किसी भ्रामक कंटेंट की जानकारी नहीं थी। उन्हें अपने स्तर पर ऐसे ऑटोमेटेड टूल्स और AI डिटेक्शन सिस्टम लागू करने होंगे, जो संदिग्ध या हानिकारक कंटेंट की पहचान कर सकें।
इसका मतलब है कि अब जिम्मेदारी केवल कंटेंट पोस्ट करने वाले यूजर की नहीं होगी, बल्कि प्लेटफॉर्म को भी सक्रिय भूमिका निभानी होगी। यदि कोई डीपफेक वीडियो या फर्जी पहचान वाला कंटेंट सामने आता है, तो उसे तुरंत हटाना आवश्यक होगा।
डीपफेक और फर्जी पहचान पर विशेष सख्ती
डीपफेक तकनीक के जरिए किसी व्यक्ति की पहचान का दुरुपयोग कर नकली वीडियो या ऑडियो तैयार किए जा रहे हैं। नए नियमों के तहत यदि कोई व्यक्ति किसी और की पहचान बनाकर AI की मदद से फर्जी कंटेंट तैयार करता है, तो प्लेटफॉर्म को शिकायत का इंतजार किए बिना भी कार्रवाई करनी होगी। ऐसे मामलों में संबंधित अकाउंट को सस्पेंड या बैन किया जा सकता है। यह नियम आम यूजर से लेकर बड़े क्रिएटर तक सभी पर समान रूप से लागू होगा।
यूजर्स को नियमित चेतावनी देना जरूरी
नियमों में यह भी प्रावधान जोड़ा गया है कि हर तीन महीने में सोशल मीडिया कंपनियों को अपने यूजर्स को सूचित करना होगा कि AI कंटेंट का गलत इस्तेमाल कानूनी कार्रवाई का कारण बन सकता है। यदि कोई उपयोगकर्ता बार-बार नियमों का उल्लंघन करता है, तो उसका अकाउंट स्थायी रूप से बैन किया जा सकता है। यह कदम ऑनलाइन अनुशासन बनाए रखने और गलत प्रवृत्तियों को हतोत्साहित करने के लिए उठाया गया है।
किन प्लेटफॉर्म पर लागू होंगे नियम
ये संशोधित नियम व्यापक दायरे में लागू होंगे। इसमें Facebook, Instagram और X जैसे सोशल मीडिया प्लेटफॉर्म शामिल हैं। WhatsApp और Telegram जैसे मैसेजिंग ऐप्स, जहां यूजर कंटेंट साझा करते हैं, भी इस दायरे में आएंगे। इसके अलावा YouTube, ShareChat जैसे वीडियो प्लेटफॉर्म और AI-आधारित कंटेंट वेबसाइट्स व ऐप्स पर भी यही नियम लागू होंगे।
आम लोगों के लिए क्या बदलेगा
इन संशोधनों का सबसे बड़ा प्रभाव आम यूजर्स पर पड़ेगा। अब सोशल मीडिया पर दिखने वाले कंटेंट के साथ यह स्पष्ट होगा कि वह AI से तैयार किया गया है या वास्तविक है। इससे फर्जी खबरों, चुनावी अफवाहों और व्यक्तिगत बदनामी के मामलों में कमी आने की उम्मीद है। सरकार का उद्देश्य तकनीक पर रोक लगाना नहीं, बल्कि उसके जिम्मेदार उपयोग को सुनिश्चित करना है। पारदर्शिता और जवाबदेही के इस नए ढांचे के साथ डिजिटल प्लेटफॉर्म पर भरोसा बढ़ाने की दिशा में यह एक अहम कदम माना जा रहा है।


