סיכונים פוטנציאליים בהפצת מידע שגוי
מדע וטכנולוגיה לא רק משפיעים על האופן שבו העיתונות והתקשורת מעבירות את מסריהן, משפיעים ומשפיעים על אופן ויעילות הגישה לציבור, אלא גם משפיעים עמוקות על איכות המידע.
למעשה, העיתונות הצליחה להסתגל במהירות לחדשנות טכנולוגית, במיוחד בשנים האחרונות. בינה מלאכותית (AI) הפכה בהדרגה לפופולרית בתקשורת ההמונית ובחדרי החדשות של סוכנויות ידיעות. יישום הבינה המלאכותית הביא יתרונות הן לעיתונאים והן לארגוני תקשורת. היא משחררת עיתונאים ממשימות יומיומיות מייגעות, ועוזרת להם לחסוך זמן ולהתמקד בעבודה יצירתית ומיומנת יותר.
בעוד שלבינה מלאכותית יש יתרונות רבים, היא גם מעוררת כמה חששות. אחד הסיכונים המשמעותיים ביותר הוא הפוטנציאל של תוכן שנוצר על ידי בינה מלאכותית להפיץ מידע שגוי.
עשר סוכנויות הידיעות המובילות בעולם קוראות למשא ומתן קולקטיבי ושקוף בין כלי תקשורת למפתחי בינה מלאכותית כדי לשלוט באילו חומרים המוגנים בזכויות יוצרים ניתן להשתמש בכלי אימון של בינה מלאכותית, וכן כדי לבטל הטיה באלגוריתמים של בינה מלאכותית.
בשבוע שעבר, 10 מסוכנויות הידיעות המובילות בעולם חתמו על מכתב הקורא לשקיפות ולחוקי זכויות יוצרים ברורים המכוונים נגד בינה מלאכותית. סוכנויות הידיעות טענו כי לבינה מלאכותית יש פוטנציאל "לאיים על קיימות המערכת האקולוגית של התקשורת" על ידי שחיקה משמעותית של אמון הקוראים באיכות ובשלמות החדשות.
על פי מחקרים רבים, ניתן להשתמש בבינה מלאכותית כדי לסנן ולבחור סיפורים בעלי הסיכוי הגבוה ביותר למשוך קוראים ולעסוק בהם, ובכך ליצור חוסר איזון בחדשות שלא היה קיים אם סיפורים היו מוצגים בצורה אובייקטיבית שנוצרה על ידי בני אדם. הציבור נחשף רק לצד אחד של הסיפור, ולכן הוא יכול להיות מכוון על ידי מידע חד-צדדי שנוצר על ידי בינה מלאכותית. יתר על כן, ניתן להשתמש בבינה מלאכותית כדי להפיץ מידע שגוי וחדשות כוזבות לציבור על ידי הצגת סיפורים מפוברקים לצד סיפורים אמיתיים.
בינה מלאכותית יכולה להיות פגיעה גם לחדשות כוזבות. אלגוריתמים של בינה מלאכותית נועדו לעבד נתונים במהירות ובדייקנות, מה שאומר שקשה להבחין בין חדשות אמיתיות לחדשות כוזבות. יתר על כן, בינה מלאכותית אינה מסוגלת להבין את ההשלכות הרגשיות והמוסריות של החדשות שהיא מעבדת. ככל שהבינה המלאכותית ממשיכה להתקדם, כך הפגיעות שלה לחדשות כוזבות תגדל, מה שמקשה עוד יותר על ההבחנה בין מה אמיתי למזויף.
לדברי פרופסור חבר ד"ר נגוין נגוק אואן - ראש הפקולטה ליחסים בינלאומיים באקדמיה לעיתונאות ותקשורת, כאשר הבינה המלאכותית הופכת חזקה, זה גם הזמן שבו עלינו לשים לב במיוחד ולהיות פרואקטיביים נוכח הסיכון שאנשים רעים וכוחות עוינים ישתמשו בבינה מלאכותית כדי להפיץ חדשות מזיקות ופגמיות. מנקודת מבט של אבטחת התקשורת, זה מראה את הסיכון הפוטנציאלי למידע שגוי, עיוות ופגימות. ברגע שבינה מלאכותית מיושמת בתחום המידע, הטכנולוגיה יכולה לסייע בקולות מזויפים, תמונות, יצירת סיפורים והצהרות מזויפות שנראים אמיתיים כדי להטעות את הציבור, במיוחד ברשתות החברתיות.
"בעלי כוונות רעות מנצלים את תפקידה ויוקרתה של העיתונות כדי לזייף מידע, מרמים את הציבור שמדובר במידע המסופק ומשתקף על ידי העיתונות. התפתחותן של חדשות מזויפות תהפוך למתוחכמת ומורכבת יותר, ולכן, יחד עם העלאת הערנות, שיטות הזיהוי, התגובה והטיפול בחדשות מזויפות חייבות להתמקד בהשקעה בטכנולוגיה חכמה ובטיפול שיטתי בהן. יש לשפר את יכולת ניהול הרשתות החברתיות וניהול סוכנויות העיתונות כדי להסתגל לשינויים", העיר פרופסור חבר, ד"ר נגוין נגוק אואן.
תעשיית החדשות חייבת למצוא דרכים להגן על התוכן היצירתי שלה.
מאז השקת ChatGPT בנובמבר 2022, אפליקציות חדשות המבוססות על בינה מלאכותית גנרטיבית נפרסו כמעט מדי יום. כתוצאה מכך, האינטרנט התמלא בתוכן שנוצר על ידי בינה מלאכותית. אמנם יש בו תוכן מדהים, אך יש בו גם הרבה תוכן תפל וחוזר על עצמו. זה מקל על הפצת מידע שגוי ומטיל עומס גדול יותר על תעשיית המדיה לבנות ולשקם אמון בקרב הקוראים.
העיתונאית נגוין הואנג נהאט - סגנית העורכת הראשית של עיתון Vietnamplus, נזכרה בלקחים מהעבר, כאשר מומחים רבים אמרו שאחת הטעויות הגדולות הראשונות של העיתונות הייתה תגובה איטית מדי לחשיבות ולפלישה של הרשתות החברתיות. "עברנו תקופה ארוכה של העלאת כל התוכן שאנו מייצרים לרשתות החברתיות, שינוי הדברים הליבה שלנו כדי לשרת אותן, שלפעמים זה לא הכוח שלנו וגם לא מה שהקוראים צריכים. בקיצור, נתנו יותר מדי כוח לרשתות החברתיות והובילו לכך שהרשתות החברתיות הופכות על פניהם ובלעו אותנו", אמרה העיתונאית נגוין הואנג נהאט.
בימים בהם נבחרת הנשים של וייטנאם התחרתה בגביע העולם, הרשתות החברתיות היו מלאות במקורות שהפיצו מידע מעוות ומפוברק. (צילום: VTC)
בהתייחסו לאיום הנוכחי מצד בינה מלאכותית, אמר העיתונאי נגוין הואנג נהאט כי באופן כללי, בינה מלאכותית עוזרת לחדרי חדשות לבצע את עבודתם מהר יותר ולחסוך בעלויות, אך היא תהפוך את העורכים והכתבים למקלים יותר, וכן תתרום להפצת מידע כוזב מהר יותר. "לדוגמה, במהלך מונדיאל הנשים האחרון, תוכן מזויף על נבחרת הנשים של וייטנאם הפך 'ויראלי' להחריד באמצעות ממים שנוצרו מכלים מבוססי בינה מלאכותית, מה שגרם לפסיכולוגיה הכללית של חלק מהקהל להידחף לקיצוניות קיצונית", נתן העיתונאי נגוין הואנג נהאט דוגמה.
מעבר לים, ניוז גארד דיווח על נתון מפתיע: 347 אתרי חדשות שנראים כמו אתרי חדשות לגיטימיים, אך מלאים בתוכן שנוצר על ידי בינה מלאכותית ומקדמים מידע שגוי. מחקר שנערך לאחרונה על ידי המכון הטכנולוגי של מסצ'וסטס (MIT) מצא שאנשים נוטים יותר להאמין למידע שגוי שנוצר על ידי בינה מלאכותית מאשר לחדשות כוזבות שנוצרו על ידי בני אדם.
לדברי העיתונאי נגוין הואנג נהאט, מציאות זו מציבה את תעשיית החדשות במצב בו עליה למצוא דרכים להגן על התוכן היצירתי והקניין הרוחני שלה, אך אינה יכולה להפנות עורף לנוחות שמביאה הבינה המלאכותית.
בהערכת האתגרים בכנות החדשות, אמר פרופסור חבר ד"ר נגוין נגוק אואן כי למרות של-Chat GPT יש תכונות יוצאות דופן רבות, בסופו של דבר, מדובר בכלי שעיתונאים חייבים ללמוד לשלוט בו, להשתמש בו למען פעילויות עבודתם כדי ליצור עבודות ולפרסם תוצרים בהתאם לעקרונות המקצוע. נושא אימות מקורות המידע של כתבים ועיתונאים חשוב ביותר אם הם לא רוצים "לעזור" להפצת מידע לא מדויק.
באמצעות סמינרים ודיונים רבים בנושא בינה מלאכותית, הגיעו למסקנה כי הסיכון בשימוש בנתונים וחדשות מזויפים בעבודות עיתונאיות גבוה מאוד אם ניהול התוכן במערכת המערכת אינו יכול לעמוד בקצב התפתחות הטכנולוגיה הדיגיטלית . בהקשר לכך שהמסדרון המשפטי לעיתונות דיגיטלית בווייטנאם טרם עמד בקצב המציאות, בעיות משפטיות, איומים על אבטחת התקשורת, תיקי הפרת זכויות יוצרים ומחלוקות בנוגע לאתיקה עיתונאית, אחריות חברתית של העיתונות בעת יישום עיתונות אוטומטית... מהווים אתגרים מרכזיים כיום.
פאן הואה ג'יאנג
[מודעה_2]
מָקוֹר
תגובה (0)