בהמשך לתוכנית המושב העשירי, בבוקר ה-21 בנובמבר, הציג שר המדע והטכנולוגיה נגוין מאן הונג את טיוטת החוק בנושא בינה מלאכותית בפני האסיפה הלאומית.

שר המדע והטכנולוגיה נגוין מאן הונג.
השר נגוין מאן הונג אמר כי החוק מספק צעדים שיטתיים ומקיפים לאיזון ניהול וקידום מחקר, פיתוח, פריסה ויישום של בינה מלאכותית (AI) בווייטנאם.
" חוק הבינה המלאכותית שם את האדם במרכז, עם העיקרון העליון שבינה מלאכותית משרתת את האדם, אינה מחליפה אותו, שאנשים מפקחים על הבינה המלאכותית בהחלטות חשובות; בינה מלאכותית חייבת להיות שקופה, אחראית ובטוחה ", הדגיש מר נגוין מאן הונג.
מפקד מגזר המדע והטכנולוגיה הצהיר כי הצעת החוק לניהול מערכות בינה מלאכותית בהתאם לרמות הסיכון מעודדת פיתוח מקומי של בינה מלאכותית ואוטונומיה בבינה מלאכותית, לוקחת את הבינה המלאכותית ככוח מניע לצמיחה מהירה ובת קיימא ומבטיחה ריבונות דיגיטלית לאומית.
הממשלה מסדירה ארבע רמות סיכון בפיתוח בינה מלאכותית, ביניהן: לא מקובל (הרמה הגבוהה ביותר); סיכון גבוה; סיכון בינוני וסיכון נמוך.
עבור מערכות בסיכון בינוני וגבוה, על הספק להודיע למשרד המדע והטכנולוגיה. מערכות בעלות סיכונים בלתי קבילים אסורות בפיתוח, אספקה, פריסה או שימוש בכל צורה שהיא.
הממשלה הציעה גם רשימה של פעילויות אסורות הכוללות מערכות המשמשות לפעולות האסורות על פי חוק, שימוש באלמנטים מזויפים כדי להונות, לתמרן ולגרום נזק חמור, ניצול חולשות של קבוצות פגיעות (ילדים, קשישים וכו'), או יצירת תוכן מזויף הפוגע קשות בביטחון הלאומי.
על פי התוכנית שהוגשה על ידי הממשלה, ארגונים ויחידים המפרים תחום זה יהיו כפופים לצעדים משמעתיים, סנקציות מנהליות או העמדה לדין פלילי. אם ייגרם נזק, יש לשלם פיצויים על פי החוק האזרחי.
במקרה של מספר משתתפים (פיתוח, אספקה, יישום), עליהם לפצות במשותף. האחריות לפיצויים נקבעת על סמך רמת הבקרה, יכולת החיזוי ואמצעי ניהול הסיכונים בפועל שכל צד יישם.
הצעת החוק קובעת קנס מנהלי מקסימלי של 2 מיליארד וונד לארגונים ומיליארד וונד ליחידים.
עבור הפרות חמורות, הקנס המקסימלי יכול להגיע עד 2% ממחזור הארגון בשנה הקודמת. במקרה של הפרות חוזרות, הקנס המקסימלי יכול להגיע עד 2% ממחזור הארגון העולמי בשנה הקודמת.
בנוסף לטיפול בהפרות, הממשלה הציעה גם מדיניות רבה לתמיכה במחקר, השקעה והכשרה של משאבי אנוש איכותיים, תוך יצירת תנאים לעסקים, ארגונים ויחידים להשתתף בפיתוח ויישום של בינה מלאכותית.

יו"ר ועדת המדע, הטכנולוגיה והסביבה, נגוין טאנה האי הציג את דו"ח הסקירה.
בהצגת דו"ח הסקירה, אמר יו"ר הוועדה למדע, טכנולוגיה וסביבה, נגוין טאנה האי, כי הוועדה מסכימה באופן עקרוני עם סיווג הסיכונים ל-4 רמות (סיכונים נמוכים, בינוניים, גבוהים ובלתי מקובלים).
" עם זאת, הצעת החוק לא הגדירה בבירור קריטריונים כמותיים או איכותיים לזיהוי וסיווג סיכונים, ואין בה תקנות לגבי אמצעי ניהול, כלים ושיטות להערכת סיכונים, ולכן סיווג סיכונים וסיווג עצמי קשים, מה שמוביל לחששות לגבי אחריות משפטית ביישום ", אמרה גב' נגוין טאנה האי.
בנוגע לתקנות טרום-בדיקה, סוכנות הביקורת הציעה לבחון ולצמצם את התקנות טרום-בדיקה כגון דרישות למסמכים טכניים ויומני תפעול לפני הכנסת מוצרים למחזור, דבר שיגדיל את עלויות התאימות, יאט את תהליך החדשנות ויישום הבינה המלאכותית, יפחית את התחרותיות ואת משיכת ההשקעות, ויש צורך לבחון מעבר משמעותי למנגנון שלאחר בדיקה.
בנוגע למאגר הנתונים הלאומי של מערכות בינה מלאכותית ומסדי נתונים המשמשים בינה מלאכותית, הציעה ועדת המדע, הטכנולוגיה והסביבה להוסיף עקרונות מרכזיים להבטחת איכות הנתונים המשמשים בינה מלאכותית, כגון: הנתונים חייבים להיות "נכונים - מספיקים - נקיים - חיים" וישותפים באופן מאוחד.
בנוסף, על פי סוכנות הפיקוח, יש צורך במנגנון לחיבור ושיתוף נתונים כדי למנוע פיזור נתונים, ויצירת צווארי בקבוק במחקר ופיתוח בתחום הבינה המלאכותית; ועקרונות מחייבים להבטחת אבטחת רשת, אבטחת נתונים והגנה על תשתית בינה מלאכותית לאומית, תוך מניעת הסיכון לחטיפה ודליפת נתונים.
בנוגע לאחריותם המשפטית של הצדדים המעורבים, פעולות וטעויות שבוצעו על ידי בני אדם יכולות להתבצע גם על ידי בינה מלאכותית. בינתיים, ישנן דעות רבות ושונות לגבי האחריות המשפטית של הבינה המלאכותית עצמה, ולכן קשה לקבוע אחריות במובן המסורתי. כאשר מתרחש אירוע, הוא יגרום למחלוקות בנוגע לאחריות מנהלית, אזרחית ופלילית.
" לכן, יש צורך להוסיף עקרונות כדי להבחין בין אחריות בין נושאים לבין צדדים קשורים, כולל ספקים זרים, בעת מתן שירותי בינה מלאכותית חוצי גבולות ולהבחין בין מקרים מכוונים ללא מכוונים או טעויות עקב מגבלות טכניות ומצבים בלתי צפויים", אמר יו"ר ועדת המדע, הטכנולוגיה והסביבה.
בנוגע לפעולות אסורות, סוכנות הפיקוח הציעה להשלים את התקנות בנושא פעולות אסורות כדי לתרום לזיהוי מוקדם של הפרות, החל משלב המחקר ועד לפריסת השימוש בבינה מלאכותית.
זה חייב לכלול את התנהגותם של משתמשים, ארגונים ויחידים המנצלים את הבינה המלאכותית כדי לבצע פעולות אסורות בכיוונים הבאים: איסור השימוש בבינה מלאכותית לגרימת אי-סדר, הסתה לפוליטיקה, הפרת הביטחון הלאומי, מניפולציה של הצבעות ובחירות; איסור השימוש בבינה מלאכותית ליצירת תוכן מזויף, יצירת תמונות וסרטוני וידאו למטרות הונאה, פגיעה בכבוד, פגיעה בכבוד ובמטרות רעות אחרות.
אַנגְלִית






תגובה (0)