התפוצצות הבינה המלאכותית (AI) מביאה תועלת רבה לאנושות, אך כרוכה גם בתוצאות רבות: החל מדעות קדומות גזעיות, הונאות מקוונות מתוחכמות ועד לסיכון שמדינות מתפתחות יהפכו ל"מכרות נתונים" זולים.
בהינתן מציאות זו, האם השימוש האחראי בבינה מלאכותית צריך להיות וולונטרי או חובה? מה צריכה לעשות וייטנאם בבניית מסדרון משפטי לתחום זה?
בשולי אירוע שבוע המדע והטכנולוגיה VinFuture, הכתב ניהל שיחה עם פרופסור טובי וולש - אוניברסיטת ניו סאות' ויילס (אוסטרליה), איש אקדמיה של האגודה האמריקאית למחשבים.
הפרופסור מציע תובנות לגבי האופן שבו אנו "מתנהגים" עם בינה מלאכותית, החל מהעמדת "מכונות" לדין ועד טיפים למשפחות כיצד להגן על עצמן מפני גל הונאות ההיי-טק.
מי אחראי על הבינה המלאכותית?
פרופסור, האם השימוש האחראי בבינה מלאכותית צריך להיות וולונטרי או חובה? וכיצד עלינו להתנהג כלפי בינה מלאכותית?
אני מאמין בתוקף ששימוש אחראי בבינה מלאכותית צריך להיות חובה . ישנם תמריצים מעוותים במשחק , עם סכומי עתק שמרוויחים מבינה מלאכותית, והדרך היחידה להבטיח התנהגות נאותה היא להטיל תקנות מחמירות , כך שהאינטרס הציבורי תמיד יהיה מאוזן עם האינטרסים המסחריים .
כאשר בינה מלאכותית עושה טעות, מי אחראי? במיוחד עם סוכני בינה מלאכותית, האם יש לנו את היכולת לתקן את מנגנוני הפעולה שלהם?
הבעיה המרכזית עם טעויות של בינה מלאכותית היא שאנחנו לא יכולים להטיל על בינה מלאכותית אחריות. בינה מלאכותית אינה אנושית - וזהו פגם בכל מערכת משפט בעולם . רק בני אדם יכולים להיות אחראים על החלטותיהם ופעולותיהם.

פתאום, יש לנו "סוכן" חדש, בינה מלאכותית, שיכול - אם נאפשר זאת - לקבל החלטות ולבצע פעולות בעולמנו, מה שמציב אתגר: את מי נרשה?
התשובה היא: חברות שפורסות ומפעילות מערכות בינה מלאכותית חייבות לשאת באחריות לתוצאות ש"מכונות" אלה גורמות.
חברות רבות מדברות גם על בינה מלאכותית אחראית. איך נוכל לסמוך עליהן? איך נדע שהן רציניות ומקיפות, ולא רק משתמשות ב"בינה מלאכותית אחראית" כגימיק שיווקי?
- עלינו להגביר את השקיפות. חשוב להבין את היכולות והמגבלות של מערכות בינה מלאכותית. עלינו גם "להצביע באמצעות עשייה", כלומר, לבחור להשתמש בשירותים באחריות.
אני באמת מאמין שהאופן שבו עסקים משתמשים בבינה מלאכותית באחריות יהפוך למבדיל בשוק, ויעניק להם יתרון מסחרי.
אם חברה מכבדת את נתוני הלקוחות, היא תועיל ותמשוך לקוחות. עסקים יבינו שעשיית הדבר הנכון היא לא רק אתית, אלא גם תעזור להם להצליח יותר. אני רואה בכך דרך להבדיל בין עסקים, ועסקים אחראיים הם אלה שאנחנו יכולים להרגיש בנוח לעשות איתם עסקים.
וייטנאם צריכה להגן באופן יזום על ערכים תרבותיים.
וייטנאם היא אחת המדינות הבודדות ששוקלות לחוקק את החוק בנושא בינה מלאכותית. מהי הערכתך בנושא זה? לדעתך, עבור מדינות מתפתחות כמו וייטנאם, מהם האתגרים בנוגע לאתיקה ובטיחות בפיתוח בינה מלאכותית?
אני שמח מאוד שווייטנאם היא אחת המדינות החלוצות שיקבלו חוק ייעודי בנושא בינה מלאכותית. זה חשוב משום שלכל מדינה יש ערכים ותרבות משלה, והיא זקוקה לחוקים שיגנו על ערכים אלה.
הערכים והתרבות הווייטנאמית שונים מאלה של אוסטרליה, סין וארצות הברית. איננו יכולים לצפות שחברות טכנולוגיה מסין או ארצות הברית יגנו אוטומטית על התרבות והשפה הווייטנאמית. וייטנאם חייבת לנקוט יוזמה כדי להגן על דברים אלה.
אני מודע לכך שבעבר מדינות מתפתחות רבות עברו תקופה של קולוניזציה פיזית. אם לא נהיה זהירים, אנו עלולים לעבור תקופה של "קולוניזציה דיגיטלית". הנתונים שלכם ינוצלו ותהפכו למשאב זול.
זה בסיכון אם מדינות מתפתחות יפתחו את תעשיית הבינה המלאכותית באופן שמנצל רק נתונים מבלי לשלוט או להגן על האינטרסים שלהן.
אז איך להתגבר על המצב הזה?
- זה פשוט: השקיעו באנשים. שדרגו אנשים, ודאו שהם מבינים בינה מלאכותית. תמכו ביזמים, בחברות בינה מלאכותית, תמכו באוניברסיטאות. היו פרואקטיביים. במקום לחכות שמדינות אחרות יעבירו טכנולוגיה או ינחו אותנו, עלינו להיות פרואקטיביים ולשלוט בטכנולוגיה.

פרופסור טובי וולש משתף בשבוע המדע והטכנולוגיה של VinFuture (צילום: הוועדה המארגנת).
שנית, עלינו לתמוך בתוקף בפלטפורמות מדיה חברתית כדי ליצור סביבה בטוחה למשתמשים בווייטנאם, מבלי לפגוע בדמוקרטיה של המדינה.
למעשה, ישנן דוגמאות רבות כיצד תוכן ברשתות החברתיות השפיע על תוצאות בחירות, פילג מדינות ואף הסית לטרור.
ביליתי 40 שנה בעבודה על בינה מלאכותית. ב-30 השנים הראשונות, דאגתי כיצד להפוך את הבינה המלאכותית לחזקה יותר. ב-10 השנים האחרונות, התעניינתי יותר ויותר בפיתוח בינה מלאכותית באחריות ובהבעתי את קולי.
האם תוכל לתת עצה כלשהי, מכיוון שווייטנאם נמצאת בתהליך של ניסוח חוק בנושא בינה מלאכותית?
ישנם מקרים רבים בהם חוקים חדשים אינם נחוצים. כבר יש לנו חוקי פרטיות, כבר יש לנו חוקי תחרות. החוקים הקיימים הללו חלים על המרחב הדיגיטלי, בדיוק כפי שהם חלים על העולם הפיזי.
חשוב לאכוף את החוקים הללו באופן קפדני בסביבה הדיגיטלית כפי שאנו עושים בסביבה הפיזית.
עם זאת, ישנם כמה סיכונים חדשים שצצים ואנחנו מתחילים לראות זאת. אנשים מתחילים ליצור קשרים עם בינה מלאכותית, משתמשים בה כמטפלים ולפעמים זה יגרום נזק למשתמשים, לכן עלינו להיות זהירים.
אנו תמיד רואים יצרנים אחראים כאשר הם משחררים מוצרים. לדוגמה, אם חברות בינה מלאכותית משחררות מוצרי בינה מלאכותית שפוגעים בבני אדם, גם הן צריכות להיות אחראיות.
אז איך נוכל למנוע מבינה מלאכותית לגרום להשפעות מזיקות על ילדים וליצור סביבה בטוחה לילדים בכל פעם שמופיעה בינה מלאכותית, אדוני?
אני חושבת שלא למדנו הרבה לקחים מהרשתות החברתיות. מדינות רבות מתחילות להבין שלרשתות החברתיות יש יתרונות גדולים אך גם חסרונות רבים, במיוחד ההשפעה על בריאות הנפש, רמות החרדה ודימוי הגוף של צעירים, ובמיוחד בנות.
מדינות רבות כבר החלו ליישם צעדים לטיפול בבעיה זו. באוסטרליה, מגבלת הגיל לשימוש במדיה חברתית תיכנס לתוקף ב-10 בדצמבר. אני חושב שאנחנו צריכים צעדים דומים עבור בינה מלאכותית.
אנחנו בונים כלים שיכולים להיות בעלי השפעות חיוביות אך גם לגרום נזק, ואנחנו צריכים להגן על נפשם וליבם של ילדינו מפני השפעות שליליות אלה.
בנוסף, אני מקווה שמדינות יפרסמו גם תקנות מחמירות לניהול רשתות חברתיות, ובכך ייצרו סביבה בטוחה באמת לכולם בעת שימוש בבינה מלאכותית.
למעשה, לא רק ילדים אלא גם מבוגרים מתמודדים עם הסיכונים הנגרמים על ידי בינה מלאכותית עצמה. אז איך אנשים יכולים להשתמש בבינה מלאכותית כדי לשפר את חייהם מבלי להוות סכנה?
בינה מלאכותית מיושמת בתחומים רבים, ועוזרת לשפר את איכות חיינו. ברפואה, בינה מלאכותית מסייעת לגלות תרופות חדשות. בחינוך , בינה מלאכותית מביאה גם יתרונות חיוביים רבים.
עם זאת, מתן גישה לבינה מלאכותית ללא אמצעי הגנה נאותים הוא מסוכן מדי. ראינו תביעות משפטיות בארה"ב בהן הורים תבעו חברות טכנולוגיה שגרמו לילדיהם להתאבד לאחר אינטראקציה עם צ'אטבוטים מבוססי בינה מלאכותית.
למרות שאחוז משתמשי ChatGPT שחווים בעיות בריאות הנפש הוא רק אחוזים בודדים, עם מאות מיליוני משתמשים, המספר בפועל עומד על מאות אלפים.
נתונים חשובים מאוד לפיתוח בינה מלאכותית, אך מנקודת מבט ניהולית, אם ניהול הנתונים יהיה הדוק מדי, הוא יעכב את פיתוח הבינה המלאכותית. לדעתך, אילו סכנות יכולות להיגרם כתוצאה מהקלת ניהול הנתונים? כיצד לאזן בין איסוף נתונים, ניהול נתונים בטוח לבין יצירת פיתוח עבור בינה מלאכותית?
אני מסכים לחלוטין. נתונים הם לב ליבה של התקדמות הבינה המלאכותית , כי הנתונים הם אלה שמניעים אותה. בלי נתונים, לא נעשה שום התקדמות. נתונים באיכות גבוהה הם בליבת כל מה שאנחנו עושים. למעשה, הערך המסחרי והיתרון התחרותי שחברות משיגות נובעים מנתונים. בין אם יש לנו נתונים איכותיים ובין אם לאו, זוהי הסוגיה המרכזית.
זה מעורר רחמים לראות את ספריהם של סופרים ברחבי העולם - כולל שלי - נמצאים בשימוש ללא רשות וללא תמורה. זוהי פעולה של גניבת פירות עמלם של אחרים. אם מצב זה יימשך, סופרים יאבדו את המוטיבציה לכתוב ספרים, ואנחנו נאבד את הערכים התרבותיים שאנו מוקירים.
אנחנו צריכים למצוא פתרון שוויוני יותר ממה שיש לנו עכשיו.
כרגע, "עמק הסיליקון" לוקח תוכן ויצירתיות מיוצרים מבלי לשלם על כך - זה לא בר קיימא. אני משווה את המצב הנוכחי לנאפסטר ולימיה הראשונים של המוזיקה המקוונת בשנות ה-2000. אז, מוזיקה מקוונת כולה "גנבה", אבל זה לא יכול היה להימשך לנצח, כי מוזיקאים היו צריכים הכנסה כדי להמשיך ליצור.
לבסוף, יש לנו מערכות סטרימינג בתשלום , כמו ספוטיפיי או אפל מיוזיק, או מוזיקה הנתמכת על ידי פרסומות, כאשר חלק מההכנסות חוזרות לאמן. אנחנו צריכים לעשות את אותו הדבר עם ספרים, כדי שסופרים יקבלו ערך מהנתונים שלהם. אחרת, אף אחד לא יהיה מוטיבציה לכתוב ספרים, והעולם יהיה במצב גרוע בהרבה בלי ספרים חדשים שייכתבו.

במסגרת שבוע המדע והטכנולוגיה של VinFuture, התערוכה "Toa V - נקודת מגע של המדע" תתקיים גם במרכז האמנות העכשווית של Vincom רויאל סיטי (צילום: הוועדה המארגנת).
בינה מלאכותית מפותחת מאוד בווייטנאם. לאחרונה, וייטנאם נקטה במדיניות רבות לקידום בינה מלאכותית, אך וייטנאם מתמודדת גם עם בעיה, והיא הונאה הנגרמת על ידי בינה מלאכותית. לכן, לדברי הפרופסור, כיצד וייטנאם צריכה להתמודד עם מצב זה? מהי עצתו של הפרופסור לאלו המשתמשים כיום בבינה מלאכותית כדי להבטיח את בטיחותם ולהגן על הנתונים שלהם?
- אני חושב שהדרך הפשוטה ביותר עבור כל אדם היא לאמת את המידע. לדוגמה, כאשר מקבלים שיחת טלפון או דוא"ל, למשל מבנק, עלינו לבדוק שוב: אנו יכולים להתקשר בחזרה למספר המנוי הזה או ליצור קשר ישירות עם הבנק כדי לאמת את המידע.
יש הרבה מיילים מזויפים, מספרי טלפון מזויפים, אפילו שיחות זום מזויפות בימינו. הונאות אלו פשוטות, זולות ולא גוזלות הרבה זמן.
במשפחה שלי, יש לנו גם אמצעי אבטחה משלנו: "שאלה סודית" שרק בני המשפחה יודעים, כמו שמו של ארנב המחמד שלנו. זה מבטיח שמידע חשוב יישאר בתוך המשפחה ולא ידלף החוצה.
גם וייטנאם כללה חינוך לבינה מלאכותית בחינוך הכללי, אז מה יש לשים לב אליו בתהליך הזה?
בינה מלאכותית משנה את מה שנלמד וכיצד הוא נלמד. היא משפיעה על מיומנויות חשובות בעתיד, כגון חשיבה ביקורתית, מיומנויות תקשורת, אינטליגנציה חברתית ואינטליגנציה רגשית. מיומנויות אלו יהפכו לחיוניות.
בינה מלאכותית יכולה לסייע בהוראת מיומנויות אלה, למשל כמורה פרטי, עוזר לימוד אישי, או מתן כלים חינוכיים יעילים מאוד באמצעות יישומי בינה מלאכותית.
תודה פרופסור על שהקדשת מזמנך לשיחה שלנו!
מקור: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm






תגובה (0)