במושב הבוקר של האסיפה הלאומית ה-10 ב-21 בנובמבר, הציג שר המדע והטכנולוגיה נגוין מאן הונג דו"ח על טיוטת החוק בנושא בינה מלאכותית (AI), חוק הצפוי להיות פריצת דרך ביצירת מסדרון משפטי לטכנולוגיה הבסיסית של התקופה.
לדברי השר, מטרת החוק אינה רק לקדם חדשנות ולשפר את התחרותיות הלאומית, אלא גם לנהל סיכונים, להגן על זכויות אדם, ביטחון דיגיטלי וריבונות , ולמסד מדיניות חשובה של המפלגה והמדינה בנושא פיתוח בינה מלאכותית.

שר המדע והטכנולוגיה נגוין מאן הונג.
אחת מנקודות העיקרון המרכזיות של הצעת החוק היא הצבת האדם במרכז, מתוך עקרון: בינה מלאכותית משרתת את האדם, אינה מחליפה אותו, ואנשים שומרים לעצמם את הזכות לפקח על החלטות חשובות. בינה מלאכותית חייבת להבטיח שקיפות, אחריות ובטיחות לאורך כל מחזור החיים התפעולי.
הנקודה החדשה בטיוטה היא שיטת ניהול מבוססת סיכונים, המחלקת מערכות בינה מלאכותית לרמות שונות כדי להבטיח גמישות ולעודד פיתוח ותנועה לעבר אוטונומיה של טכנולוגיית בינה מלאכותית.
טיוטה זו יורשת ומבטלת בו זמנית תקנות קשורות בחוק תעשיית הטכנולוגיה מס' 71/2025/QH15, וממלאת את ה"פערים" החסרים לבניית מערכת משפטית סינכרונית לבינה מלאכותית.
הצעת החוק חלה על יחידים וארגונים מקומיים וזרים כאחד המפתחים, מספקים, פורסים או משתמשים במערכות בינה מלאכותית בווייטנאם, או יוצרים מוצרי בינה מלאכותית המשמשים בווייטנאם.
זה יהיה עקבי עם האופי חוצה הגבולות של טכנולוגיית בינה מלאכותית ומודלים בינלאומיים של פלטפורמות.
מטעם סוכנות הביקורת, יו"ר הוועדה למדע, טכנולוגיה וסביבה, נגוין טאנה האי, אמר כי בניית החוק בצורה של חוק מסגרת היא סבירה.
עם זאת, ההתפתחות המהירה של הבינה המלאכותית הופכת את הסיכון שיהיה צורך לתקן את החוק תוך זמן קצר ל"אפשרי".

יו"ר ועדת המדע, הטכנולוגיה והסביבה נגוין טאנה האי.
יש דעות שמציעות להתייחס לחוק הבינה המלאכותית כ"חוק המקורי", שממנו כל חוק ייעודי חייב להוסיף פרק נפרד בנושא בינה מלאכותית כדי לסנכרן את המערכת המשפטית.
הוועדה הסכימה בעיקרון לסווג את הסיכונים לארבע רמות: נמוכות, בינוניות, גבוהות ובלתי מקובלות. עם זאת, הטיוטה אינה מספקת קריטריונים כמותיים או איכותיים ברורים, חסרה בה תקנות לגבי אמצעי ניהול וכלי הערכה, מה שמוביל לבלבול בקרב עסקים בסיווג עצמי של סיכונים ולחששות לגבי אחריות משפטית.
הוועדה ממליצה לבחון מחדש ולצמצם הליכי אישור מוקדם, כגון דרישות תיעוד טכני או יומני תפעול לפני הפצת מוצרים. אם התקנות מחמירות מדי, עלויות הציות יגדלו, החדשנות תאט ויכולת למשוך השקעות תפחת. עמדת הוועדה היא שיש צורך במעבר משמעותי למנגנון אישור לאחר מכן, בהתאם לאופי המשתנה במהירות של הבינה המלאכותית.
בנוגע להצעה להקים ועדה לאומית לבינה מלאכותית, ביקשה ועדת הבדיקה הבהרה לגבי סמכות ההקמה, מנגנון ההפעלה והמבנה הארגוני. מודל זה חייב להיות קשור באופן הדוק ליוזמה מספר 26 - "יצירת מרכז עצבים למחקר, הכשרה ובדיקות בתחום הבינה המלאכותית".
נתונים הם הבסיס של בינה מלאכותית, אך הצעת החוק עדיין לא קובעת במלואם את עקרונות איכות הנתונים. הוועדה הציעה להוסיף סט של קריטריונים "נכון - מספיק - נקי - חי", ולדרוש שהנתונים יהיו מקושרים ולא מפוזרים כדי למנוע יצירת צווארי בקבוק במחקר ובפריסה של בינה מלאכותית.
בנוסף, חייבות להיות תקנות מחייבות בנושא אבטחה, אבטחת סייבר והגנה על מערכות בינה מלאכותית לאומיות כדי למנוע דליפות או חטיפות נתונים.
יו"ר הוועדה למדע, טכנולוגיה וסביבה, נגוין טאן האי, הציע להוסיף סעיף נפרד בנושא השימוש בבינה מלאכותית בהכשרה, מחקר וחדשנות - תחום שיוצר פריצות דרך משמעותיות כמו "תכנון חלבונים", גילוי חומרים חדשים או סימולציה מדעית. הוועדה הציעה להוסיף סעיף נפרד בנושא זה, הכולל: זכויות יוצרים, אבטחת נתוני מחקר, שיתוף נתונים, מנגנון ארגז חול ופטור מאחריות כאשר מתקיימים תקנות.
הוועדה הציעה גם להרחיב את מגוון הפרקטיקות האסורות, במטרה לזהות ולמנוע סיכונים משלבי המחקר ועד ליישום.
מעשים אסורים כוללים: שימוש בבינה מלאכותית להסתה לפוליטיקה, שיבוש ביטחון, מניפולציה של הצבעה ובחירות; שימוש בבינה מלאכותית ליצירת תוכן, תמונות וסרטונים מזויפים כדי להונות, לפגוע בכבוד, לפלג את הקהילה או לשרת מטרות רעות אחרות וכו'.
מקור: https://mst.gov.vn/luat-tri-tue-nhan-tao-khuyen-khich-phat-trien-ai-trong-nuoc-197251130205559985.htm






תגובה (0)