כלי יצירת הסרטונים החדש של OpenAI שולח משפחות של ידוענים למשבר, כאשר תמונות של יקיריהם שנפטרו "קמות לתחייה" על ידי בינה מלאכותית בסרטונים פוגעניים, מעוותים ולעיתים משפילים.
סרטונים שנוצרו על ידי בינה מלאכותית של אנשים שנפטרו, ממלקולם אקס ועד וויטני יוסטון וקובי בריאנט, עוררו סערה, והעלו שאלות לגבי גבולות אתיים ושליטה בתמונות בעידן הבינה המלאכותית.
תוכן פוגעני
איליאסה שבאז, בתו של פעיל זכויות האזרח מלקולם אקס, אומרת שהיא לא רוצה לראות קטעים של אביה שנוצרו על ידי בינה מלאכותית. הסרטונים הללו נוצרו באמצעות Sora 2, כלי המרת טקסט לסרטון החדש של OpenAI, כדי ליצור סצנות של מלקולם אקס מספר בדיחות גסות ומתווכח עם הכומר מרטין לותר קינג.
"זה חסר כבוד ושובר לב לראות את דמותו של אבי מנוצלת בצורה כה חסרת טעם. אני לא מבין מדוע האנשים שמפתחים את הטכנולוגיה הזו לא פועלים באותו מצפון ודאגה שהיו פועלים כלפי משפחתם", אמר שבאז לוושינגטון פוסט .
![]() |
סורה 2 יוצר סרטונים מתמונות של אנשים שנפטרו ללא רשות. צילום: בלומברג . |
Sora 2 הפך במהרה לתופעה עולמית הודות ליכולתו ליצור סרטונים ריאליסטיים להפליא. תוך ימים ספורים מהשקתה, האפליקציה זינקה לראש טבלת ההורדות. עם זאת, התפשטותה המהירה גרמה גם לסדרה של סרטוני סלבריטאים מזויפים הופיעו ברשתות החברתיות.
התמונות ה"קמות לתחייה" של מייקל ג'קסון, אלביס פרסלי ואיימי וויינהאוס התפשטו במהירות מסחררת, והותירו צופים רבים ללא יכולת להבחין בין אמיתי למזויף.
חלק מהסרטונים נועדו להיות מצחיקים, כמו זה שבו פרד רוג'רס, מנחה "Mr. Rogers' Neighborhood", שר ראפ עם טופאק שאקור. אבל חלק ניכר מהתוכן שנוצר הוא פשוט יותר מדי.
ביניהם, סרטון המשחזר את וויטני יוסטון במצב של שיכורים מזווית מזויפת ממצלמת משטרה, קובי בריאנט טס במסוק בתאונה שהרגה אותו ואת בתו, והנשיא לשעבר ג'ון פ. קנדי מתבדח על התנקשות בפוליטיקאי עכשווי - כל אלה עוררו את זעמם של חברי הקהילה.
תקנות רופפות
המדיניות של OpenAI קובעת כי הכלי יכול לדמות אנשים אמיתיים רק בהסכמתם. עם זאת, בהשקתו האחרונה, החברה פטרה "דמויות היסטוריות" מכלל זה, ואפשרה למשתמשים ליצור בחופשיות סרטונים של אנשים שנפטרו. החלטה זו עוררה כעס בקרב משפחות רבות של קורבנות.
זלדה וויליאמס, בתו של השחקן המנוח רובין וויליאמס, שיתפה באינסטגרם כי נשלחו אליה כל הזמן סרטוני בינה מלאכותית של אביה והתחננה בפני אנשים "בבקשה להפסיק".
"זה מטורף לראות את המורשת של אנשים אמיתיים מצטמצמת לתעלולים נוראיים במקום שבו טיקטוק שולט בהם", אמרה זלדה.
![]() |
הכללים של OpenAI בנוגע לשימוש ב-Sora 2 מלאים בפרצות. צילום: בלומברג . |
מומחים אומרים שהתופעה משקפת נקודת מפנה בטכנולוגיית הבינה המלאכותית, שבה הגבול בין יצירתיות לפגיעות מטשטש. הנרי אג'דר, חוקר דיפפייק, אמר כי "התחיית המתים הסינתטית" מעלה שאלות גדולות לגבי שליטה בתדמית אישית ובמורשת.
"אם משתמשים בתמונות של ידוענים כדי ליצור תוכן, זה בהחלט ימשוך צפיות. אבל עם הנפטרים, זה נוגע בשאלה עמוקה יותר: למי שייכים הזיכרונות והזהות שלהם", אמר אג'דר.
בתגובה לסערה, OpenAI אמרה כי תאפשר לנציגים של דמויות ציבוריות שנפטרו לאחרונה לבקש לחסום את תמונותיהם בסרטוני סורה. "אנו מאמינים כי דמויות ציבוריות ומשפחותיהם צריכים להיות בעלי שליטה על אופן השימוש בתמונות המוגנות בזכויות יוצרים שלהם", אמר דובר OpenAI.
מספר ארגונים בתעשיית הבידור האמריקאית הביעו גם הם את חששותיהם. סוכנות Creative Artists Agency, חברת הניהול של כוכבי הוליווד רבים, אמרה ש-Sora 2 העמידה את הלקוחות ואת הקניין הרוחני בסיכון חמור. איגוד הקולנוע האמריקאי (MPAA) קרא ל-OpenAI לנקוט בפעולה "מיידית ומכרעת" כדי להגן על זכויות היוצרים.
לא רק אמנים, גם דמויות היסטוריות נפלו קורבן. סרטון אחד שיצר סורה מראה את וינסטון צ'רצ'יל מקדם את ג'ט בלו או מתייחס לבדיחות גסות באינטרנט.
מקור: https://znews.vn/ai-tao-video-gay-phan-cam-post1593268.html
תגובה (0)