websights आवाज की हूबहू नकल तो कहीं शादी के लिए पार्टनर का हमशक्ल तैयार, फायदा ही नहीं खतरा भी बन रहा AI - Staqu Technologies

आवाज की हूबहू नकल तो कहीं शादी के लिए पार्टनर का हमशक्ल तैयार, फायदा ही नहीं खतरा भी बन रहा AI

Misuse Of Artificial Intelligence: AI का इस्तेमाल सिर्फ सेलिब्रिटीज के खिलाफ ही नहीं हो रहा बल्कि देश में ऐसी तमाम घटनाएं सामने आ रही हैं, जिसमें साइबर अपराधी लोगों को अलग-अलग तरीके से निशान बना रहे हैं।

आर्टिफिशियल इंटेलिजेंस का शिकार ना सिर्फ फिल्मी सितारे हो रहे हैं बल्कि खुद प्रधानमंत्री मोदी ने नई तकनीक के गलत इस्तेमाल पर अपनी चिंता जाहिर की है। साथ ही उन्होंने बताया कि कैसे उनका भी एक फेक विडियो बनाया, जो सोशल मीडिया पर वायरल हो रहा है। बात सिर्फ डीपफेक की नहीं है बल्कि देश में AI का प्रयोग अलग-अलग तरीके से आपराधिक घटनाओं को अंजाम देने के लिए किया जा रहा है। इसी बारे में हमने तमाम एक्सपर्ट्स से बात की।

सही तकनीक का गलत प्रयोग
ऐसा नहीं है कि पहले कभी किसी के चेहरे की कॉपी करके फोटो, वीडियो नहीं बनाए गए, लेकिन तक तकनीक इतनी एडवांस नहीं थी कि फेक चेहरे को पहचाना ना जा सके। लोगों की चिंता इस बात पर है कि AI का प्रयोग कर जिस तरीके से चेहरे और आवाज का क्लोन बनाया जा रहा है, उसकी पहचान एक आम आदमी के लिए इतनी आसान नहीं हो पा रही है। इस बारे में स्टैक्यू के सीईओ और AI एक्सपर्ट अतुल राय बताते हैं, ‘किसी भी तकनीक के दो पहलू होते हैं। एक वाइट साइड होता है और दूसरा ब्लैक। हर तकनीक की तरह से AI पूरी तरह से गलत नहीं है तो पूरी तरह से सही भी नहीं है। डीपफेक के एआई के शब्दों में अलग-अलग रूप हैं। उदाहरण के लिए किसी के चेहरे पर दूसरे का चेहरा लगा देना, इसे फेस मार्किंग कहते हैं, और ये तरीका 20 साल पुराना है। लेकिन इसे करने में पहले बहुत वक्त लगता था। उसका भी क्रिएटिव प्रयोग होता था ना की किसी को परेशान करने के लिए। लेकिन एआई के जरिए इसे आसान बना दिया गया। सुपर फास्ट तरीके से अब इसे कुछ सेकेंड में कर लिया जाता है।

Book A Free Demo

इसी तरह किसी की आवाज को कॉपी करके ऑडियो बनाना इसे ऑडियो सिंथेसिस कहते हैं। तो इस तरह से किसी की आवाज को कॉपी करके लोग इसका गलत इस्तेमाल भी कर रहे हैं।’ वहीं AI एक्सपर्ट कार्तिक शर्मा बताते हैं, ‘एआई में तीन तरह की चीजें हैं। पहला डेटा साइंड, दूसरा कम्प्यूटर वीजन और तीसरा नैचरल लैंग्वेज प्रोसेसिंग है। कम्प्यूटर साइंस में आप किसी का डिजिटल ट्विन बनाते हैं और बिना उसकी जानकारी के आप प्रयोग करते हैं या व्यक्ति से धोखाधड़ी कर दी। वहीं नैचरल लैंग्वेज प्रोसेसिंग में ऑडियो क्लाेनिंग आती है। किसी इसमें आप किसी के विडियो पर किसी और की ऑडियो डाल देते हैं या फिर किसी की वॉइस को कॉपी करके ऑडियो तैयार किया और किसी दूसरे को कॉल करके आपसे फ्रॉड कर दिया। तो ये दोनों तरह के क्राइम इन चीजों में आते हैं।’

बच्चों से लेकर कंपनियां तक शिकार
सिर्फ बड़े लोग ही नहीं बल्कि इसका शिकार बच्चे भी हो रहे हैं। वहीं कई कंपनियों को भी इसका खामियाजा भुगतना पड़ रहा है। इस बारे में कार्तिक शर्मा बताते हैं कि इसका इस्तेमाल लोग ना सिर्फ क्राइम के लिए कर रहे हैं बल्कि कंपनियों के कर्मचारी और इंटरव्यू देने वाले भी एआई का गलत यूज कर रहे हैं। वह बताते हैं, ‘कॉरपोरेट कंपनियों में तो एम्पलॉयी एआई का इस्तेमाल प्रैंक करने में काफी प्रयोग कर रहे हैं। इनमें ज्यादा आईटी से जुड़ी कंपनियों के कर्मचारी हैं। किसी को बॉस की आवाज में कुछ भेज दिया। सबसे बड़ा फ्रॉड इंटरव्यू में देखने को मिल रहा है। जो लोग जूम पर इंटरव्यू देते हैं, उसमें वह अपना क्लोन बना लेते हैं, और वो क्लोन इंटरव्यू दे रहा होता है।वहीं जो ऑरिजिनल व्यक्ति होता है, वह पीछे से सवाल के जवाब क्लोन में डाल रहा होता है। ये मेरा खुद का अनुभव है। जब वो सिलेक्ट हो जाते हैं, तो वो नहीं आते। इस तरह की घटनाएं हो रही हैं।

एआई के जरिए क्लोन बनाना अब आसान हो गया है, जिसका फायदा अपराधी भी उठा रहे हैं। ऐसे में जरूरी है कि हम सर्तक रहें और अपनी जानकारी को बढ़ाएं।

अतुल रॉय (AI एक्सपर्ट)

वहीं शादी के प्रपोजल में भी लोग एआई के जरिए क्लोन तैयार कर अपने पार्टनर को चीट कर रहे हैं।’ वहीं साइबर लॉ एक्सपर्ट और सुप्रीम कोर्ट के वकील पवन दुग्गल बताते हैं, ‘मेरे पास एक मामला आया, जिसमें एक छोटी बच्ची स्कूल जाती है। वो घर से टैक्सी ले जाती है। पैरंट्स जॉब करते हैं। एक दिन लड़की स्कूल गई होती है, तो उनके पास एक कॉल आता है कि आपकी बेटी को हमने किडनैप कर लिया है, हमें 25 लाख रुपये दीजिए वरना लड़की को मार देंगे। पैरंट्स ने हमें विश्वास नहीं है आप लड़की से बात कराओ। उन्होंने बच्चे से बात कराई जिसमें वो रोती है और पैरंट्स से बचाने की गुहार लगाती है। वो मोलभाव करते हैं और फिर किडनैपर को पैसा दे देते हैं। फिर जब वो लड़की को बताई जगह पर ले जाने के लिए निकलते हैं तो उनके जहन में आता है कि किसी और के साथ ऐसा ना हो तो हम स्कूल में इस बारे में जानकारी दे देते हैं। जैसे ही वह स्कूल कॉल करते हैं, तो पता चलता है कि लड़की तो स्कूल में ही है और किसी ने उनके साथ ठगी की है।’

इस तरह आपके चेहरे और आवाज का ले रहे सैंपल
ठगी के लिए साइबर क्रिमिनल ज्यादातर उन लोगों को निशाना बना रहे हैं, जो सोशल मीडिया पर एक्टिव हैं। जानकार बताते हैं कि सोशल मीडिया पर लोग अपने विडियो और फोटोज डालते हैं। ऐसे में ज्यादातर केस सोशल मीडिया प्लैटफॉर्म से शुरू होते हैं और वहीं से किसी व्यक्ति की आवाज का सैंपल लिया जाता है। कार्तिक शर्मा बताते हैं, ‘अभी जो आम लोगों के साथ घटनाएं हाे रही हैं, उसमें विडियो के लिए या ऑडियो के लिए सैंपल सोशल मीडिया से लिए जा रहे हैं। क्रिमिनल उन लोगों को शिकार बनाते हैं जिनकी प्रोफोइल पर उनका ऑडियो और विडियो कॉन्टेंट मौजूद हो।’

घटना 1
दिल्ली के अशोक विहार फेज 3 के रहने वाले सुमित के पास उनके ही एक दोस्त की आवाज में एक व्यक्ति ने कॉल किया। और एक अकाउंट में पैसे ट्रांसफर करने को कहा। बाद में सुमित को पता चला कि उनके साथ ठगी हुई है और उन्हें 1 लाख की चपत लग गई।

घटना 2
ठाकुरगंज निवासी आशीष सिंह के पास उनके एक दोस्त के नाम से वीडियो कॉल आई। कॉल में उनको अपना दोस्त नजर आया, जिसने इमरजेंसी में डेढ़ लाख रुपए की मांग की। आशीष ने पैसे ट्रांसफर कर दिए। बाद में पता चला कि उनके दोस्त ने कोई कॉल नहीं की ये AI फेस स्वैपिंग कर ठगों ने घटना अंजाम दी।

घटना 3
प्रयागराज के धूमनगंज की एक लड़की का AI की मदद से अश्लील फोटो और वीडियो बनाया गया। पैसे की मांग की, नहीं देने पर दोस्तों को वीडियो और फोटो भेजा गया। पुलिस ने मामला दर्ज किया।

 

Read the complete story on navbharattimes