गूगल ने हाल ही में डीपफेक तकनीक का इस्तेमाल करने वाली अश्लील सामग्री को हटाने की योजना की घोषणा की है। यह कदम तब उठाया गया है जब इस तकनीक का इस्तेमाल दुर्भावनापूर्ण उद्देश्यों या गलत सूचना फैलाने के लिए किया जाता है। डीपफेक तकनीक में किसी व्यक्ति के चेहरे या शरीर को डिजिटल रूप से संपादित करके एक तस्वीर या वीडियो में बदल दिया जाता है।
हालाँकि उपयोगकर्ता Google खोज से छवियों को हटाने का अनुरोध कर सकते हैं, लेकिन इस प्रक्रिया को आसान बनाने के लिए नए सिस्टम विकसित किए जा रहे हैं। विशेष रूप से, जब उपयोगकर्ता अनुरोध करते हैं कि उनकी सहमति के बिना उन्हें दर्शाने वाली नकली सामग्री को खोज से हटा दिया जाए, तो Google के सिस्टम उनके बारे में समान खोज पृष्ठों पर प्रासंगिक परिणामों को फ़िल्टर कर देंगे। डीपफेक को रोकने में मदद के लिए छवियों की प्रतियों को एक साथ संसाधित किया जा सकता है।
गूगल के समाधान का परीक्षण किया जा चुका है और यह अन्य प्रकार की गैर-सहमति वाली छवियों से निपटने में प्रभावी साबित हुआ है।
तदनुसार, कंपनी इस नकली सामग्री के कारण डीपफेक छवियों वाली वेबसाइटों के लिए खोज परिणामों में दिखाई देना कठिन बना रही है। गूगल, नकली सामग्री वाली वेबसाइटों के क्रम को कम करने के लिए रैंकिंग अपडेट लागू करने के लिए जाना जाता है।
यह नई सुविधा डीपफेक समस्या से निपटने के लिए और अधिक समाधान खोजने की दिशा में एक नया कदम है।
[विज्ञापन_2]
स्रोत: https://kinhtedothi.vn/google-tran-ap-deepfake.html
टिप्पणी (0)