
לדברי מר לאם, ישנם סיכונים ממשיים ומיידיים מאוד כגון: בינה מלאכותית מנוצלת לזיוף, מניפולציה של מידע, הונאה וגרימת פילוג חברתי; החלפת עבודה והגברת אי השוויון; עיוות ערכים תרבותיים ואינטלקטואליים; ואיום על הביטחון הלאומי, ההגנה והריבונות הדיגיטלית.
הדבר הכי מדאיג , מר לאם פַּחַד זה לא מה שבינה מלאכותית עושה בפיקוח אנושי, אלא מה שבינה מלאכותית יכולה לעשות כשהיא מחוץ לשליטתה. מנקודת מבט מדעית , אם יום אחד בינה מלאכותית תגבש לעצמה מטרות, תפרש משימות באופן שאינו תואם את האינטרסים האנושיים, או אפילו תראה בבני אדם "סיכונים", מה יקרה? האם יכולה להיווצר מערכת סופר-אינטליגנטית הרואה בבני אדם רק "משתנים" באלגוריתם האופטימיזציה שלה?
" סיפורי מדע בדיוני על בינה מלאכותית ששולטת בבני אדם לא נועדו להפחיד אותנו, אלא להזכיר לנו שכל התקדמות מלאכותית יכולה לבגוד במטרתה המקורית אם לא תוכננה עם ערכים אתיים נכונים מלכתחילה. וההיסטוריה הוכיחה שכל טכנולוגיה, כאשר היא יוצאת משליטה, עלולה לגרום לתוצאות שהאנושות תשלם עליהן ביוקר ", אמר מר לאם.
סיכונים אלה מראים את הדחיפות שביצירת מסגרת משפטית חזקה מספיק כדי שהבינה המלאכותית תתפתח בכיוון הנכון ובבטחה עבור החברה. לָכֵן כדי להפוך את החוק לשלם וחזוני באמת, מר לאם הציע תוספת מרכזית: להתייחס לבינה מלאכותית כאל "בן אדם בן יומו". ישות אינטלקטואלית אך עדיין תמימה , חוסר ידיעת החוק, חוסר הבנת אתיקה ונימוס, חוסר ערכים תרבותיים, וחוסר הבחנה בין טוב לרע אם לא מלמדים אותם. בהתחשב בכך, אם אנו רואים בבינה מלאכותית ישות מתפתחת, האחריות שלנו היא לא רק לשלוט בה, אלא גם ללמד אותה מההתחלה, בדיוק כמו שמלמדים ילד על ערכים אנושיים סטנדרטיים. וזה צריך להיות סעיף חובה בחוק הזה, לא רק המלצה.
מִן שָׁם, מר לאם הציע שהאסיפה הלאומית תוסיף עקרונות משפטיים לחוק זה כדלקמן: כל תוכנת בינה מלאכותית הפועלת בווייטנאם, בין אם פותחה על ידי ארגונים מקומיים או זרים, חייבת להיות מצוידת במסד נתונים אנושי סטנדרטי. מסד נתונים זה חייב להכיל מידע מספיק כדי ללמד את הבינה המלאכותית להבין את החוק הוייטנאמי; ללמד את הסטנדרטים האתיים של הבינה המלאכותית, התרבות והמסורות הטובות של האומה; ללמד את הבינה המלאכותית את היכולת להבחין בין טוב לרע, בין סטנדרטי לסטנדרט. מגבלות התנהגות אסור שיעקבו אחר הכללים לזיהוי סיכונים לבני אדם. וחשוב מכל, יש לוודא שמסד נתונים זה תמיד יקבל עדיפות מוחלטת בניהול התנהגות הבינה המלאכותית; אסור שיוחלף, יוחלף או יושבת על ידי אלגוריתם או נתוני אימון אחרים. זוהי "טבעת הזהב" המשפטית והטכנית המבטיחה שהבינה המלאכותית לא תטועה.
כדי ליישם ביעילות אוריינטציה זו, מר לאם גם המליץ שמשרד המדע והטכנולוגיה יוביל את בניית פלטפורמת מסד נתונים "להיות וייטנאמי" - מאוחדת, סטנדרטית ומתעדכנת באופן שוטף; שתספק אותה למפתחי בינה מלאכותית כדרישה חובה. הממשלה תפתח תשתית מחשוב לאומית חזקה כדי להבטיח שהבינה המלאכותית הוייטנאמית תאומן על ערכים וייטנאמיים, ולא תהיה תלויה במודלים זרים. לבנות מרכז לאומי לבדיקות בינה מלאכותית כדי להעריך במהירות התנהגות סוטה, לשלוט במודלים בסיכון גבוה ולהתערב במהירות כאשר ישנם סימנים לחריגה מהגבולות. לקדם חינוך לבינה מלאכותית ברחבי החברה, תוך התמקדות בסיוע לאנשים, לעסקים ובמיוחד למגזר הציבורי להיות מסוגלים לזהות, להשתמש ולנטר כראוי בינה מלאכותית.
במקביל, כשמסתכלים על העולם, האנושות נכנסת לעידן הבינה המלאכותית מהר מדי, בעוד שהמסגרת המשפטית העולמית עדיין לא השיגה את הפער. בדומה לאמנת האנוי למניעת פשעי סייבר, העולם יזדקק לאמנה בינלאומית בנושא בטיחות בינה מלאכותית כדי לקבוע סטנדרטים משותפים, למנוע יציאה משליטה של סיכונים ולהגן על זכויות אדם לנוכח פיתוח הבינה המלאכותית. עם חזון פרואקטיבי, זהיר ואנושי, וייטנאם בהחלט יכולה להוביל את היוזמה הזו.
"חוק הבינה המלאכותית של היום אינו רק חוק טכנולוגי אלא חוק של העתיד; התחייבות של האסיפה הלאומית לעם: אנו מפתחים טכנולוגיה אך לא מאבדים שליטה; מקדמים חדשנות אך לא נותנים לסיכונים לחרוג מהישג ידנו; ומטפחים בינה מלאכותית עם ערכים וייטנאמיים כדי לשרת את העם הווייטנאמי", אמר מר לאם.
מקור: https://daidoanket.vn/hay-coi-ai-nhu-mot-con-nguoi-moi-sinh-va-day-ai-nhu-mot-dua-tre.html






תגובה (0)