גוגל הכריזה לאחרונה על תוכניות להסיר תוכן פורנוגרפי המשתמש ב-Deepfakes. המהלך מגיע כאשר הטכנולוגיה משמשת למטרות זדוניות או להפצת מידע שגוי. Deepfakes הם מצבים בהם פניו או גופו של אדם עוברים עריכה דיגיטלית לתמונה או סרטון .
בעוד שמשתמשים יכלו לבקש להסיר תמונות מחיפוש גוגל, מערכות חדשות מפותחות כדי להקל על התהליך. באופן ספציפי, כאשר משתמשים מבקשים להסיר תוכן מזויף המציג אותם מחיפוש ללא הסכמתם, מערכות גוגל יסננו תוצאות רלוונטיות בדפי חיפוש דומים אודותיהם. ניתן לעבד עותקים של תמונות בו זמנית כדי לסייע להם למנוע זיופים עמוקים.
הפתרון של גוגל נבדק והוכח כיעיל בטיפול בסוגים אחרים של תמונות שאינן מוסכמות.
בהתאם לכך, החברה מקשה על אתרים המכילים תמונות דיפפייק להופיע בתוצאות החיפוש בגלל תוכן מזויף זה. גוגל ידועה בכך שהיא פורסת עדכוני דירוג כדי להפחית את סדר האתרים המכילים תוכן מזויף.
תכונה חדשה זו מסמנת צעד חדש קדימה במציאת פתרונות נוספים להתמודדות עם בעיית העיפ-פייק.
[מודעה_2]
מקור: https://kinhtedothi.vn/google-tran-ap-deepfake.html
תגובה (0)