इस सप्ताह जारी एक चेतावनी में, एफबीआई ने कहा कि उसने हाल ही में ब्लैकमेल पीड़ितों की संख्या में वृद्धि देखी है, जो कहते हैं कि उन्हें ऑनलाइन पोस्ट, व्यक्तिगत संदेश या वीडियो चैट से ली गई सामान्य छवियों को नकली संस्करणों में संपादित करने के लिए एआई का उपयोग करके लक्षित किया गया है।
स्पेन की पुलिस ने एक बार एक प्रोग्रामर को गिरफ़्तार किया था जो कृत्रिम बुद्धिमत्ता (AI) का इस्तेमाल करके नकली बाल पोर्नोग्राफ़ी तस्वीरें बना रहा था। फोटो: डेली मेल
चेतावनी में कहा गया है, "फिर अपराधी ब्लैकमेल या यौन उत्पीड़न के लिए इन तस्वीरों को सीधे पीड़ितों को भेज देते हैं। एक बार वितरित होने के बाद, पीड़ितों को छेड़छाड़ की गई सामग्री को लगातार साझा होने से रोकने और उसे इंटरनेट से हटाने में बड़ी चुनौतियों का सामना करना पड़ सकता है।"
ब्यूरो ने कहा कि ये तस्वीरें "वास्तविक" प्रतीत होती हैं, साथ ही यह भी कहा कि कुछ मामलों में बच्चों को भी निशाना बनाया गया है।
फरवरी में, स्पेन में पुलिस ने एक कंप्यूटर प्रोग्रामर को गिरफ्तार किया, जिसने एआई का उपयोग करके भयावह बाल दुर्व्यवहार चित्र बनाए थे। ऐसा माना जाता है कि यह अपनी तरह की पहली गिरफ्तारियों में से एक थी।
एफबीआई ने यौन चित्र बनाने के लिए उपयोग किए जाने वाले एआई कार्यक्रमों के बारे में विस्तार से नहीं बताया, लेकिन ध्यान दिया कि तकनीकी प्रगति "एआई-संचालित सामग्री निर्माण की गुणवत्ता, अनुकूलन और पहुंच में लगातार सुधार कर रही है।"
कामुक चित्र बनाने के लिए नियमित तस्वीरों को संपादित करना लगभग फोटोग्राफी जितना ही पुराना है, लेकिन हाल ही में ओपन-सोर्स एआई उपकरणों के विस्फोट ने इस प्रक्रिया को पहले से कहीं अधिक आसान बना दिया है।
नकली फोटो या वीडियो अक्सर वास्तविक जीवन के संस्करणों से अलग नहीं होते हैं, और हाल के वर्षों में एआई-संचालित यौन छवियों को बनाने और आदान-प्रदान करने के लिए समर्पित कई वेबसाइट और सोशल नेटवर्क भी सामने आए हैं।
इसे कृत्रिम बुद्धिमत्ता द्वारा समाज के लिए उत्पन्न किये जाने वाले खतरों की श्रृंखला में से एक माना जा रहा है, जिसके बारे में विशेषज्ञों ने हाल ही में चिंता व्यक्त की है और चेतावनी दी है।
होआंग अन्ह (डेली मेल, रॉयटर्स के अनुसार)
[विज्ञापन_2]
स्रोत
टिप्पणी (0)