אנו חיים בעידן המהפכה התעשייתית 4.0, שבה בינה מלאכותית (AI) הופכת בהדרגה לחלק בלתי נפרד מתחומים רבים בחיים החברתיים. התקשורת, כגשר מידע בין הציבור לאירועים, אינה יכולה להיות מחוץ למגמה זו.
| גב' נגוין טי האי ואן - מנהלת המרכז להכשרת עיתונאים, איגוד העיתונאים של וייטנאם, בסדנה בנושא טכנולוגיית בינה מלאכותית. (מקור: איגוד העיתונאים של וייטנאם) | 
כדי להפיק את המרב מהיתרונות שמביאה הבינה המלאכותית, אנשי תקשורת צריכים לצייד את עצמם בידע הדרוש לשימוש יעיל בבינה מלאכותית, תוך הבטחת אמינות ואתיקה בהעברת מידע.
מה"חריפות" של הבינה המלאכותית
ברור לחלוטין ש-AI (בינה מלאכותית) היא אחת ממילות המפתח החמות ביותר כיום. בספטמבר 2024, חיפוש בגוגל אחר מילת המפתח "AI" תוך 0.3 שניות רשם 15 מיליארד 900 מיליון תוצאות; עם מילת המפתח "כלי בינה מלאכותית", תוך 0.4 שניות רשם יותר מ-3 מיליארד 400 מיליון תוצאות. מספרים עצומים אלה מראים את הסיקור והעניין בבינה מלאכותית ובכלים מבוססי בינה מלאכותית ברחבי העולם.
כיום, מופיעים יותר ויותר כלי בינה מלאכותית עבור תחומים שונים, כולל תעשיית המדיה. מלבד ChatGPT הידוע, ישנם יישומי בינה מלאכותית רבים שפותחו בכיוון ייעודי, המשרתים משימות ייעודיות. לא קשה למנות כאן כלים רבים, לדוגמה: Bing AI, Clause, Zapier Central עבור קבוצת משימות Chatbot; Jasper, Copy.ai, Anyword עבור משימות יצירת תוכן; Descript, Wondershare, Runway עבור משימות הפקה ועריכה של וידאו ; DALL-E3, Midjourney, Stable Diffusion עבור משימות יצירת תמונות; Murf, AIVA עבור משימות תוכן אודיו וכו'. לאחרונה, ענקית אמזון הציגה גם את כלי הבינה המלאכותית שפיתחה, Video Generator ו-Image Generator, במטרה "לעורר יצירתיות ולהביא ערך רב יותר".
למרות שכלי בינה מלאכותית מגוונים מאוד בקנה מידה או ברמת ההתמחות שלהם, במהות של הטכנולוגיה יש שני דברים משותפים: כלי בינה מלאכותית מפותחים על סמך אלגוריתמים ונתונים כדי "לאמן" את כלי הבינה המלאכותית.
בקרה אתית על שימוש בבינה מלאכותית בתקשורת
אין להכחיש את הנוחות שמביאים כלי בינה מלאכותית, ועם הקצב המהיר של עדכוני הטכנולוגיה, יהיו עוד ועוד כלי בינה מלאכותית ייעודיים בכל פינה, שיענו על משימות פשוטות ועד מורכבות בתעשיית המדיה. יחד עם התפתחות עצומה זו, עולות שאלות רבות בנוגע לסוגיית הבקרה האתית בפיתוח ובשימוש בכלי בינה מלאכותית בתעשיית המדיה? מה יקרה אם האלגוריתמים והנתונים של אותו כלי בינה מלאכותית יעברו מניפולציה באופן שיפגע בקהילה? מי מבטיח את זכויות הקניין הרוחני על נתוני הקלט בהם משתמש כלי הבינה המלאכותית לצורך הדרכה? מי מעריך את רמת הנזק שהם גורמים?
האם קיים אי שוויון בין קבוצת האנשים שיש להם גישה לכלי בינה מלאכותית לבין הקבוצה שאין לה גישה אליהם באותה משימה? אף הועלו שאלות לגבי רמת הפגיעה הבלתי נשלטת הפוטנציאלית מכלי בינה מלאכותית, במיוחד בתחומים רגישים שיכולים להשפיע על אנשים רבים בקנה מידה גדול, כמו מדיה ורשתות חברתיות.
מתוך הכרה בדאגות הנ"ל, ארגונים, עמותות, ממשלות ואפילו חברות ותאגידים רבים המפתחים כלי בינה מלאכותית פרסמו המלצות, הסברים ואף כללי התנהגות הקשורים לסוגיית הבקרה האתית בטכנולוגיית בינה מלאכותית. ההצהרה בדבר אתיקה של בינה מלאכותית - המלצת אונסק"ו - ארגון האומות המאוחדות לחינוך , מדע ותרבות, שאומצה על ידי 193 מדינות בשנת 2021, קובעת בבירור כי "העלייה המהירה של בינה מלאכותית (AI) יצרה הזדמנויות רבות ברחבי העולם, החל מסיוע באבחונים רפואיים ועד לאפשר קשר אנושי באמצעות מדיה חברתית ויצירת יעילות עבודה באמצעות משימות אוטומטיות."
עם זאת, שינויים מהירים אלה מעלים גם חששות אתיים עמוקים. סיכונים כאלה הקשורים לבינה מלאכותית החלו להחריף את אי השוויון הקיים, מה שמוביל לפגיעה נוספת בקבוצות מוחלשות שכבר נמצאות בעמדות...". ומשם "מבקשים מאונסק"ו לפתח כלים לתמיכה במדינות החברות, כולל מתודולוגיית הערכת המוכנות, כלי לממשלות לבנות תמונה מקיפה של מוכנותן לפרוס בינה מלאכותית בצורה אתית ואחראית עבור כל אזרחיהן.
בגישתה הגלובלית, אונסק"ו השיקה את מצפה האתיקה והממשל הגלובלי של בינה מלאכותית, שלדבריה "מספק מידע על נכונותן של מדינות לאמץ בינה מלאכותית בצורה אתית ואחראית. הוא גם מארח את מעבדת האתיקה והממשל הגלובלית של בינה מלאכותית, המאגדת תרומות, מחקר בעל השפעה, ערכות כלים ושיטות עבודה חיוביות במגוון רחב של סוגיות אתיות בתחום הבינה המלאכותית..."
בנוסף לארגונים גלובליים כמו אונסק"ו, איגודים מקצועיים רבים פועלים גם הם לפיתוח סטנדרטים משלהם, לדוגמה, IABC - האיגוד הבינלאומי לתקשורת עסקית, איגוד המונה אלפי חברים מכל רחבי העולם, פיתח סט עקרונות המנחים את השימוש האתי בבינה מלאכותית על ידי אנשי מקצוע בתחום התקשורת, שמטרתו להדריך את חברי IABC בנוגע לרלוונטיות של קוד האתיקה של IABC לבינה מלאכותית. הנחיות אלו עשויות להתעדכן ולהתווסף עם הזמן במקביל לפיתוח טכנולוגיית בינה מלאכותית. בסט עקרונות זה, ישנן נקודות ספציפיות רבות שאיש מקצוע בתחום התקשורת צריך לדבוק בהן, כגון:
"משאבי בינה מלאכותית בהם נעשה שימוש חייבים להיות מונעים על ידי אדם כדי ליצור חוויות חיוביות ושקופות המטפחות כבוד ובונות אמון במקצוע התקשורת. חשוב להישאר מעודכנים לגבי ההזדמנויות והסיכונים המקצועיים שמציגים כלי בינה מלאכותית. יש להעביר מידע בצורה מדויקת, אובייקטיבית והוגנת. כלי בינה מלאכותית עלולים להיות נתונים לשגיאות רבות, חוסר עקביות ובעיות טכניות אחרות. זה דורש שיקול דעת אנושי כדי לאמת באופן עצמאי שהתוכן שלי שנוצר על ידי בינה מלאכותית הוא מדויק, שקוף ומנוגד."
להגן על המידע האישי ו/או הסודי של אחרים ולא להשתמש בו ללא רשותם. להעריך את תפוקות הבינה המלאכותית שלה על סמך מעורבות אנושית והבנה של הקהילה אותה היא שואפת לשרת. לבטל הטיות כמיטב יכולתה ולהיות רגיש לערכים ולאמונות התרבותיות של אחרים.
עליהם לבדוק עובדות ולאמת באופן עצמאי את התפוקות שלהם בקפדנות המקצועית הנדרשת על מנת להבטיח כי תיעוד, מידע או הפניות של צד שלישי מדויקים, בעלי הייחוס והאימות הנדרשים, ומורשים או מורשים לשימוש כראוי. אין לנסות להסתיר או להסוות את השימוש בבינה מלאכותית בתפוקתם המקצועית. להכיר באופייה הפתוח של בינה מלאכותית ובסוגיות הקשורות לסודיות, כולל הזנת מידע כוזב, מטעה או מטעה.
עבור חברות ותאגידים שבבעלותם, מפתחים וסוחרים בכלי בינה מלאכותית, הן אלו שמבינות את כללי הבינה המלאכותית טוב יותר מכל אחד אחר, הן מכירות את האלגוריתמים שבבסיסם פועלים כלי בינה מלאכותית ואת הנתונים שמהם כלי בינה מלאכותית מאומנים. לכן, חברות אלו צריכות גם לספק מידע הקשור לעקרונות האתיקה בפיתוח בינה מלאכותית. למעשה, ישנן חברות שמתעניינות בנושא זה.
גוגל מחויבת לא לפתח כלי בינה מלאכותית עבור אזורים בהם קיים סיכון משמעותי לפגיעה, נמשיך רק כאשר אנו מאמינים שהיתרונות עולים באופן משמעותי על הסיכונים ונשלב אמצעי הגנה מתאימים. כלי נשק או טכנולוגיות אחרות שמטרתן העיקרית או פריסתן היא לגרום או להקל ישירות על פגיעה אנושית. טכנולוגיות שאוספות או משתמשות במידע למטרות מעקב המפרות נורמות מקובלות בעולם. טכנולוגיות שמטרתן מפרה עקרונות מקובלים של המשפט הבינלאומי וזכויות אדם.
בחזית האבטחה והבטיחות, גוגל מתחייבת: "נמשיך לפתח וליישם אמצעי אבטחה ובטיחות חזקים כדי למנוע תוצאות לא מכוונות היוצרות סיכוני נזק. נתכנן את מערכות הבינה המלאכותית שלנו כך שיהיו זהירות כראוי ונשאף לפתח אותן בהתאם לשיטות העבודה המומלצות במחקר בטיחות בתחום הבינה המלאכותית. נשלב את עקרונות הפרטיות שלנו בפיתוח ובשימוש בטכנולוגיות הבינה המלאכותית שלנו. נספק הזדמנויות להודעה והסכמה, נעודד ארכיטקטורות המגנות על הפרטיות ונספק שקיפות ובקרות מתאימות על השימוש בנתונים."
בדומה לגוגל, גם מיקרוסופט פרסמה הצהרה על עקרונות וגישת הבינה המלאכותית, והדגישה: "אנו מחויבים להבטיח שמערכות בינה מלאכותית יפותחו באחריות ובאופן המבטיח את אמון האנשים...". בנוסף, בצורה כזו או אחרת, חברות טכנולוגיה גדולות שמשקיעות רבות בפיתוח כלי בינה מלאכותית כמו אמזון ו-OpenAI התחייבו גם הן.
דוגמאות רבות בהיסטוריה הוכיחו את הדואליות של הטכנולוגיה, עם גורמים חיוביים וגורמים שליליים. אחרי הכל, למרות שמדובר בפלטפורמת טכנולוגיה "הייטקית" מאוד, בינה מלאכותית עדיין מבוססת על אלגוריתמים ונתונים שפותחו ונאספו על ידי בני אדם; יחד עם זאת, רוב מוצרי הבינה המלאכותית הם חלק מתוכניות העסקיות של החברות שבבעלותן.
לכן, תמיד קיימים סיכונים פוטנציאליים מהצד הטכני וגם מצוות פיתוח המוצר וניהולו עצמו. הבעיה כאן היא היקף ההשפעה שיכולה להיות לכלי בינה מלאכותית על הרוב, אפילו ברמה החברתית-כלכלית של קהילה. תשומת הלב המוקדמת לבקרה אתית בעת שימוש בטכנולוגיית בינה מלאכותית היא סימן מבורך בהשתתפות ארגונים בינלאומיים גדולים כמו האומות המאוחדות, ממשלות, איגודי תעשייה, ומעל הכל, ממש ביחידות פיתוח הטכנולוגיה.
עם זאת, ככל שרשימת כלי הבינה המלאכותית משחררת ללא הרף גרסאות חדשות, כל אחת מתוחכמת ומורכבת יותר מקודמתה, יש לעדכן ולהשלים את הקודים, העקרונות או ההנחיות בצורה יעילה, ויתרה מכך, יש להיות פרואקטיביים במניעה, הגבלה ובקרה של מפתחי מוצרים ומשתמשים במסגרת שבה היכולת לעמוד בבקרה האתית בטכנולוגיית בינה מלאכותית בכלל ובעובדי מדיה בפרט יכולה להשיג את היעילות הגבוהה ביותר.
[מודעה_2]
מָקוֹר






תגובה (0)