गूगल ने हाल ही में डीपफेक तकनीक का इस्तेमाल करने वाली अश्लील सामग्री को हटाने की योजना की घोषणा की है। यह कदम तब उठाया गया है जब इस तकनीक का इस्तेमाल दुर्भावनापूर्ण उद्देश्यों या गलत सूचना फैलाने के लिए किया जाता है। डीपफेक तकनीक में किसी व्यक्ति के चेहरे या शरीर को डिजिटल रूप से संपादित करके किसी छवि या वीडियो में बदल दिया जाता है।
हालाँकि उपयोगकर्ता Google Search से छवियों को हटाने का अनुरोध कर सकते हैं, लेकिन इस प्रक्रिया को आसान बनाने के लिए नए सिस्टम विकसित किए जा रहे हैं। विशेष रूप से, जब उपयोगकर्ता अपनी सहमति के बिना Search से अपनी नकली सामग्री को हटाने का अनुरोध करते हैं, तो Google के सिस्टम उनके बारे में मिलते-जुलते खोज पृष्ठों पर प्रासंगिक परिणामों को फ़िल्टर कर देंगे। डीपफेक को रोकने में मदद के लिए छवियों की प्रतियों को एक साथ संसाधित किया जा सकता है।
गूगल के समाधान का परीक्षण किया जा चुका है और यह अन्य प्रकार की गैर-सहमति वाली छवियों से निपटने में प्रभावी साबित हुआ है।
तदनुसार, कंपनी इस नकली सामग्री के कारण डीपफेक छवियों वाली वेबसाइटों के लिए खोज परिणामों में दिखाई देना कठिन बना रही है। गूगल, नकली सामग्री वाली वेबसाइटों के क्रम को कम करने के लिए रैंकिंग अपडेट जारी करने के लिए जाना जाता है।
यह नई सुविधा डीपफेक समस्या से निपटने के लिए और अधिक समाधान खोजने की दिशा में एक नया कदम है।
[विज्ञापन_2]
स्रोत: https://kinhtedothi.vn/google-tran-ap-deepfake.html
टिप्पणी (0)