नई दिल्ली,6 मई (युआईटीवी)- दुनियाभर में आर्टिफिशियल इंटेलिजेंस के तेजी से बढ़ते प्रभाव के बीच अब इसके दुरुपयोग को लेकर चिंताएँ भी उतनी ही तेजी से सामने आ रही हैं। ताजा मामला इटली से जुड़ा है,जहाँ देश की प्रधानमंत्री जियोर्जिया मेलोनी ने खुद को डीपफेक तकनीक का शिकार बताया है। उन्होंने खुलासा किया है कि उनकी कई नकली तस्वीरें एआई की मदद से तैयार कर सोशल मीडिया पर असली बताकर फैलाई जा रही हैं। इस घटना ने न केवल इटली,बल्कि वैश्विक स्तर पर डीपफेक के खतरों को लेकर एक नई बहस छेड़ दी है।
जियोर्जिया मेलोनी ने इस मुद्दे पर गहरी चिंता जताते हुए कहा कि यह केवल उनके खिलाफ किया गया हमला नहीं है,बल्कि यह एक व्यापक और गंभीर समस्या का संकेत है,जो किसी भी व्यक्ति को प्रभावित कर सकती है। उन्होंने सोशल मीडिया प्लेटफॉर्म ‘एक्स’ पर एक पोस्ट के जरिए अपनी बात रखी। उन्होंने लिखा कि आजकल उनकी कई नकली तस्वीरें इंटरनेट पर वायरल हो रही हैं,जिन्हें आर्टिफिशियल इंटेलिजेंस के जरिए बनाया गया है और कुछ लोग उन्हें असली बताकर फैला रहे हैं। उन्होंने हल्के व्यंग्य में यह भी कहा कि इन तस्वीरों को बनाने वालों ने उन्हें कुछ मामलों में बेहतर दिखा दिया है,लेकिन असल चिंता यह है कि झूठ फैलाने और किसी की छवि को नुकसान पहुँचाने के लिए अब तकनीक का दुरुपयोग किया जा रहा है।
मेलोनी ने अपने बयान में यह स्पष्ट किया कि डीपफेक एक खतरनाक हथियार बन चुका है, जो लोगों को भ्रमित करने,उन्हें मैनिपुलेट करने और उनकी प्रतिष्ठा को नुकसान पहुँचाने के लिए इस्तेमाल किया जा सकता है। उन्होंने कहा कि वह एक सार्वजनिक व्यक्ति हैं और अपने बचाव के लिए संसाधन उपलब्ध हैं, लेकिन आम लोगों के पास ऐसा कोई सुरक्षा तंत्र नहीं होता। ऐसे में यह खतरा और भी गंभीर हो जाता है।
उन्होंने लोगों से अपील करते हुए कहा कि डिजिटल युग में हर व्यक्ति को अधिक सतर्क रहने की जरूरत है। किसी भी तस्वीर,वीडियो या जानकारी पर विश्वास करने से पहले उसकी सच्चाई की जाँच करना जरूरी है। उन्होंने जोर देकर कहा कि “पहले जांचें, फिर विश्वास करें और उसके बाद ही साझा करें”,क्योंकि आज जो उनके साथ हो रहा है,वह कल किसी और के साथ भी हो सकता है।
डीपफेक तकनीक का उपयोग पिछले कुछ वर्षों में तेजी से बढ़ा है। यह तकनीक एआई की मदद से किसी व्यक्ति की तस्वीर,वीडियो या आवाज को इस तरह बदल देती है कि वह असली जैसी लगती है। यही कारण है कि आम लोग इसे आसानी से पहचान नहीं पाते और गलत जानकारी तेजी से फैल जाती है। विशेषज्ञों का मानना है कि यह तकनीक भविष्य में और भी ज्यादा परिष्कृत हो सकती है,जिससे इसके खतरे और बढ़ जाएँगे।
भारत भी इस समस्या से अछूता नहीं है। यहाँ भी कई हाई-प्रोफाइल लोग डीपफेक का शिकार हो चुके हैं। हाल ही में प्रसिद्ध अभिनेत्री रश्मिका मंदाना का एक वीडियो सोशल मीडिया पर वायरल हुआ था,जिसमें एक अन्य महिला के चेहरे पर एआई के जरिए उनका चेहरा लगा दिया गया था। शुरुआत में इसे असली समझा गया,लेकिन बाद में जाँच में पता चला कि यह पूरी तरह से फर्जी था। इस घटना ने देशभर में हड़कंप मचा दिया और डिजिटल सुरक्षा को लेकर नई बहस शुरू हो गई।
इसी तरह बॉलीवुड के मशहूर अभिनेता आमिर खान भी डीपफेक का शिकार हो चुके हैं। एक वायरल वीडियो में उन्हें एक राजनीतिक पार्टी का समर्थन करते हुए दिखाया गया था, जिससे विवाद खड़ा हो गया। बाद में उनकी टीम ने स्पष्ट किया कि यह वीडियो पूरी तरह से नकली है और एआई की मदद से तैयार किया गया है। इस तरह की घटनाएँ यह साबित करती हैं कि डीपफेक तकनीक का इस्तेमाल सिर्फ मनोरंजन तक सीमित नहीं है,बल्कि इसका उपयोग गलत सूचना फैलाने और लोगों को गुमराह करने के लिए भी किया जा रहा है।
विशेषज्ञों का कहना है कि डीपफेक के खतरे से निपटने के लिए तकनीकी और कानूनी दोनों स्तरों पर कदम उठाने की जरूरत है। सरकारों को सख्त कानून बनाने होंगे,जबकि टेक कंपनियों को ऐसे कंटेंट की पहचान और रोकथाम के लिए उन्नत सिस्टम विकसित करने होंगे। साथ ही आम लोगों को भी डिजिटल साक्षरता के प्रति जागरूक करना जरूरी है,ताकि वे फर्जी सामग्री को पहचान सकें और उसे फैलाने से बचें।
जियोर्जिया मेलोनी का यह मामला इस बात का स्पष्ट उदाहरण है कि डीपफेक अब केवल आम लोगों तक सीमित नहीं रहा,बल्कि दुनिया के शीर्ष नेता भी इसकी चपेट में आ रहे हैं। यह स्थिति लोकतंत्र,समाज और व्यक्तिगत सुरक्षा के लिए गंभीर चुनौती बन सकती है।
एआई तकनीक जहाँ एक ओर मानव जीवन को आसान बना रही है,वहीं दूसरी ओर इसके दुरुपयोग से नए खतरे भी पैदा हो रहे हैं। ऐसे में जरूरी है कि तकनीक के साथ-साथ जिम्मेदारी और जागरूकता भी बढ़े। जियोर्जिया मेलोनी की चेतावनी इस दिशा में एक अहम संदेश है कि डिजिटल दुनिया में सतर्क रहना अब विकल्प नहीं,बल्कि आवश्यकता बन चुका है।
