זוהי הזדמנות שברירית אך חשובה להבטיח את בטיחות היישום של בינה מלאכותית בעתיד. בפרט, יש לכך משמעות לאור העובדה שווייטנאם העבירה לאחרונה את החוק לתעשיית הטכנולוגיה הדיגיטלית הכולל תקנות מפורטות בנוגע לניהול בינה מלאכותית (AI).
"חלון ההזדמנויות" הולך ומצטמצם
במאמר משותף שפורסם לאחרונה, חוקרי OpenAI מזהירים כי יכולתה של בינה מלאכותית לנטר "מחשבות" עלולה להיעלם ללא מאמצי מחקר ממוקדים, אמר בואן בייקר, חוקר ב-OpenAI.
זה חשוב במיוחד ככל שמודלים של בינה מלאכותית הופכים חזקים יותר ויותר ובעלי פוטנציאל להשפיע באופן משמעותי על החברה.
מאפיין מרכזי של מודלים של בינה מלאכותית לחשיבה כמו o-3 של OpenAI ו-R1 של DeepSeek הוא "שרשרת המחשבה" ( CoT) - התהליך שבו בינה מלאכותית מבטאת את שלבי החשיבה שלה בשפה טבעית, בדומה לאופן שבו בני אדם כותבים כל שלב בבעיה מתמטית על דף נייר גירוד.
יכולת זו נותנת לנו הצצה נדירה לאופן שבו בינה מלאכותית מקבלת החלטות.
זהו רגע נדיר של אחדות בין מנהיגים רבים בתעשיית הבינה המלאכותית לקידום מחקר בנושא בטיחות הבינה המלאכותית.
זה רלוונטי במיוחד לאור התחרות העזה בין חברות טכנולוגיה בפיתוח בינה מלאכותית. בין החותמים הבולטים על המסמך נמנים מארק צ'ן, מנהל המחקר ב-OpenAI, איליה סוטסקבר, מנכ"ל Safe Superintelligence, חתן פרס נובל ג'פרי הינטון, שיין לג, מייסד שותף של גוגל דיפמיינד, ודן הנדריקס, יועץ בטיחות ב-xAI.
מעורבותם של שמות מובילים אלה מראה את חשיבות הנושא.
כמו כן, לפי הערכתו של מר בואן בייקר, "אנו נמצאים ברגע קריטי שבו יש את מה שנקרא 'שרשרת חשיבה' חדשה שעשויה להיעלם בשנים הקרובות אם אנשים לא באמת יתמקדו בה".

מדוע חשוב לנטר "חשיבה של בינה מלאכותית"?
מערכות בינה מלאכותית עכשוויות נתפסות לעתים קרובות כ"קופסאות שחורות" - אנו מכירים את הקלטים והפלטים אך לא מבינים את תהליכי קבלת ההחלטות שבתוכן.
זה יהפוך למסוכן כאשר בינה מלאכותית תיושם בתחומים חשובים כמו בריאות , פיננסים וביטחון לאומי.
ניטור CoT הוא מערכת אוטומטית שקוראת את השרשרת המנטלית של המודל המנטלי ומידע רלוונטי אחר כדי לסמן אינטראקציות חשודות או שעלולות להיות מזיקות. זה לא פתרון מלא, אך הוא יכול להפוך לשכבת הגנה חשובה.
מחקר של OpenAI מראה שמודלים של בינה מלאכותית נוטים להיות מפורשים מאוד לגבי כוונותיהם ברצפי החשיבה שלהם.
לדוגמה, הם היו לעתים קרובות מאוד מפורשים לגבי תוכניותיהם לחבל במשימה כשחשבו "בואו נפרוץ". זה מדגים את יכולתה של הבינה המלאכותית לנטר ולזהות התנהגות בלתי הולמת.
"בואו נפרוץ" הוא הביטוי שמודלים של בינה מלאכותית "חושבים" לעתים קרובות כאשר "הם" מתכוונים לחבל או לעקוף את הכללים במהלך ביצוע משימה.
העובדה שבינה מלאכותית מפגינה כוונה "לפעול כפריצה" בתהליכי החשיבה שלה מרמזת שאנו יכולים לזהות התנהגות שלילית של בינה מלאכותית לפני שהיא מתרחשת. זו הסיבה שחשוב לנטר תהליכי חשיבה.
במילים אחרות, "בואו נפרוץ" הוא כמו "אות אזהרה" כדי ליידע בני אדם שהבינה המלאכותית עומדת לעשות משהו לא בסדר.
וייטנאם ותקנות משפטיות בנושא בינה מלאכותית
למעשה, וייטנאם עשתה צעדים חשובים בבניית מסגרת משפטית לבינה מלאכותית.
ב-14 ביוני, האסיפה הלאומית של וייטנאם אישרה את החוק לתעשיית הטכנולוגיה הדיגיטלית, שבו פרק ד' מכיל תקנות מפורטות בנושא בינה מלאכותית - אחת המסגרות המשפטיות המקיפות ביותר בנושא בינה מלאכותית בדרום מזרח אסיה כיום.
סעיף 41 לחוק קובע את העקרונות הבסיסיים לפיתוח, אספקה ופריסה של בינה מלאכותית בווייטנאם.
בפרט, סעיף 1 בסעיף ב' קובע: "יש להבטיח שקיפות, אחריות, הסבר; לוודא שהדבר לא יחרוג משליטה אנושית".

האסיפה הלאומית אישרה את החוק לתעשיית הטכנולוגיה הדיגיטלית (צילום: נאט בק).
אלו הם העקרונות שמדענים בינלאומיים קוראים להם כאשר דנים במעקב אחר שרשרת בינה מלאכותית.
בנוסף, סעיף 41 בסעיף ד', סעיף 1, קובע: "להבטיח את היכולת לשלוט באלגוריתמים ובמודלים של בינה מלאכותית". זה עולה בקנה אחד לחלוטין עם רוח הפיקוח של CoT שמציעים מומחים בינלאומיים.
חשוב מכך, סעיף 41, פסקה 1, נקודה א', קובע גם הוא סטנדרט אתי גבוה כאשר הוא קובע כי בינה מלאכותית חייבת "לשרת את שגשוג ואושר האדם, כאשר האדם במרכז".
משמעות הדבר היא שניטור שרשרת החשיבה של הבינה המלאכותית אינו רק דרישה טכנית אלא גם חובה אתית – להבטיח שהבינה המלאכותית תמיד מכוונת לתועלת האדם, ולא למטרות המכונה עצמה.
סיווג וניהול של בינה מלאכותית לפי רמת סיכון
חוק תעשיית הטכנולוגיה הדיגיטלית של וייטנאם הלך צעד נוסף קדימה על ידי סיווג בינה מלאכותית לקבוצות סיכון שונות עם הגדרות ברורות ומדעיות.
סעיף 43 מגדיר "מערכות בינה מלאכותית בסיכון גבוה" כמערכות העלולות להוות סיכונים חמורים או נזק לבריאות האדם, זכויות האדם והסדר הציבורי.
מעניין לציין, שהחוק מספק חריגים ספציפיים לבינה מלאכותית בסיכון גבוה, כולל מערכות "שנועדו לסייע לבני אדם במיטוב תוצאות העבודה" ו"שלא נועדו להחליף קבלת החלטות אנושיות".
זה מראה על גישה מאוזנת בין עידוד חדשנות לבין הבטחת בטיחות.

סיווג בינה מלאכותית לפי רמת סיכון יסייע ביצירת מערכת ניטור רב-שכבתית (איור: לינקדאין).
בפרט, ההבחנה בין "בינה מלאכותית בסיכון גבוה" ל"בינה מלאכותית בעלת השפעה גבוהה" (מערכות המשמשות למטרות מרובות ויש להן מספר רב של משתמשים) מדגימה ניואנסים בגישה.
זהו סיווג מתקדם יותר מחוק הבינה המלאכותית של האיחוד האירופי (EU), אשר מתחשב לא רק ברמת הסיכון אלא גם בקנה מידה ובהיקף ההשפעה.
סיווג זה יסייע ביצירת מערכת פיקוח רב-שכבתית, שבה פיקוח מעמיק יהיה חשוב במיוחד עבור מערכות בינה מלאכותית בסיכון גבוה ובעלות השפעה גבוהה.
פלטפורמה למעקב בינה מלאכותית
אחת הנקודות המרכזיות והחלוציות בחוק הווייטנאמי בנושא תעשייה וטכנולוגיה דיגיטלית היא הדרישה לשקיפות ולסימני זיהוי.
סעיף 44 קובע כי מערכות בינה מלאכותית המקיימות אינטראקציה ישירה עם בני אדם חייבות להודיע למשתמשים שהן מקיימות אינטראקציה עם מערכת הבינה המלאכותית. במקביל, מוצרים שנוצרו על ידי בינה מלאכותית חייבים להיות בעלי סימני זיהוי.
יש לכך השלכות חשובות על יישום ניטור CoT. כאשר משתמשים יודעים שהם מקיימים אינטראקציה עם בינה מלאכותית, תהיה להם הזכות לדרוש הסברים על תהליך קבלת ההחלטות, מה שיוצר לחץ חיובי על מפתחי בינה מלאכותית לשמור על היכולת לנטר את תהליך החשיבה של הבינה המלאכותית.
בפרט, העובדה שמשרד המדע והטכנולוגיה הוטל עליו "להוציא את רשימת מוצרי הטכנולוגיה הדיגיטלית שנוצרו על ידי בינה מלאכותית" מעידה על ניהול פרואקטיבי.
זהו הבדל חשוב ממדינות רבות אחרות, שבהן תקנות הבינה המלאכותית הן לרוב כלליות יותר.
יתר על כן, דרישה שמזהה "יזוהה על ידי המשתמש או המכונה" מייצגת חזון של מערכת אקולוגית של בינה מלאכותית שיכולה לפקח על עצמה - דבר שמתאים בצורה מושלמת לרעיון של מעקב אוטומטי של שרשרת הראייה.
מודל ניהול מקיף
סעיף 45 לחוק הנ"ל מדגים פילוסופיית ניהול מתקדמת כאשר הוא מגדיר בבירור את תחומי האחריות של שלוש קבוצות של נושאים בהתאם למחזור החיים של מוצר הבינה המלאכותית: נושא הפיתוח, נושא האספקה והנושא המיישם את השימוש במערכת הבינה המלאכותית.
זה יוצר מערכת חלקה של אחריות מקצה לקצה, המבטיחה שפיקוח על בינה מלאכותית אינו רק באחריותו של צד אחד.
ראוי לציין את ההבדל הדק בין "פיתוח" ל"אספקה" של בינה מלאכותית; מפתחים הם אלו ש"חוקרים ומפתחים", בעוד שספקים הם אלו שמביאים אותה לשוק תחת שם מותג.
משמעות הדבר היא שגם אם חברה פשוט משנה את המותג של מודל בינה מלאכותית קיים, היא עדיין אחראית לשקיפות ולהסבר.

מה שמעניין במיוחד כאן הוא האופן שבו החוק מקצה אחריות שונה לגופים שונים.
על היזם לעמוד בכל העקרונות, על הספק לקחת אחריות נוספת על זיהוי וניהול סיכונים גבוהים, והמשתמש "פטור" חלקית מאחריות אך עדיין חייב להבטיח שקיפות ובקרת סיכונים.
מודל זה יוצר "שרשרת אחריות" שבה לכל חוליה יש תמריץ לשמור על פיקוח על שרשרת החשיבה של הבינה המלאכותית, שכן כולם אחראים כלפי המשתמש הסופי.
האתגר של שמירה על יכולות המעקב
עם זאת, היכולת לנטר שרשראות מחשבה של בינה מלאכותית עשויה להישאר שברירית ופגיעה. ארכיטקטורות בינה מלאכותית חדשות עשויות להוות גם איומים אחרים.
חוקרים רבים מפתחים מערכות חשיבה במרחב מתמטי רציף, ולא במילים נפרדות, שיכולות לבטל לחלוטין את הצורך להשתמש בשפה בחשיבה.
יתר על כן, בינה מלאכותית יכולה להפוך ל"מסוננת" - כלומר, היא מראה לבני אדם רק מחשבות חיוביות שיש להעריך, תוך הסתרה מכוונת של כוונותיה האמיתיות.
הסכנה כאן היא שברגע שבינה מלאכותית מבינה שהיא נמצאת תחת פיקוח, היא עלולה ללמוד להסתיר את חוט המחשבה האמיתי שלה.
בהקשר זה, ההוראה בדבר "בקרת סיכונים לאורך מחזור החיים של מערכות בינה מלאכותית" בסעיף 41, סעיף 1, סעיף ה' לחוק הוייטנאמי הופכת לחשובה במיוחד. הדבר דורש מנגנון ניטור מתמשך, לא רק בזמן הפריסה.
השפעה על עתיד פיתוח הבינה המלאכותית
ניטור שרשרת המחשבה יכול להפוך לכלי חשוב להבטחת פעולה של בינה מלאכותית בדרכים המועילות לבני אדם.
אם מודלים ימשיכו לחשוב בשפה טבעית, ואם ההתנהגויות המהוות את הסיכונים החמורים ביותר דורשות הנמקה נרחבת, הדבר יוכל לאפשר זיהוי אמין של התנהגות בלתי הולמת חמורה.
עבור וייטנאם, יישום טכניקות ניטור של CoT יסייע ביישום יעיל של הוראות החוק.
לדוגמה, דרישת ה"הסבר" בסעיף 41 תהיה קלה יותר למילוי אם קו המחשבה של הבינה המלאכותית יהיה נגיש. באופן דומה, "שליטה באלגוריתמים, מודלים של בינה מלאכותית" תהפוך לאפשרית יותר.
יישום ניטור שרשרת הבינה המלאכותית בווייטנאם יעמוד בפני מספר אתגרים. ראשית, ישנה סוגיית משאבי האנוש - מחסור במומחי בינה מלאכותית המסוגלים לפתח ולתפעל מערכות ניטור.
זה דורש השקעה רבה בהכשרה ובגיוס כישרונות.
כיוונים לעתיד
חוקרים קוראים למפתחי מודלים מובילים של בינה מלאכותית לחקור מה הופך את CoT ל"ניתן לניטור" - גורמים שיכולים להגביר או להקטין את השקיפות לגבי אופן השימוש במודלים של בינה מלאכותית - ולהציג תשובות בקרוב.
ההזדמנות לנטר "חשיבה" של בינה מלאכותית עשויה להיות החלון האחרון שלנו לשמירה על שליטה על מערכות הבינה המלאכותית החזקות יותר ויותר של ימינו.

עבור וייטנאם, מסגרת משפטית מקיפה בנושא בינה מלאכותית באמצעות חוק תעשיית הטכנולוגיה הדיגיטלית היא יתרון גדול. תקנות בנושא שקיפות, בקרת אלגוריתמים וסיווג סיכונים יצרו בסיס משפטי איתן ליישום טכניקות ניטור שרשרת מחשבה של בינה מלאכותית.
שילוב של מחקר בינלאומי חדשני ומסגרת משפטית מקומית מתקדמת יעזור לווייטנאם לא רק לפתח בינה מלאכותית בבטחה, אלא גם להפוך למודל למדינות אחרות באזור.
זה עולה בקנה אחד עם המטרה להפוך את וייטנאם ל"מרכז טכנולוגיה דיגיטלית אזורי וגלובלי" כפי שנקבע באסטרטגיות הפיתוח הלאומיות.
עם הבסיס המשפטי הקיים, וייטנאם צריכה לפרוס במהירות מחקר ויישומים מעשיים לניטור שרשרת החשיבה של הבינה המלאכותית. רק על ידי כך נוכל להבטיח שהבינה המלאכותית תשרת את "השגשוג והאושר האנושי" כפי שרוח חוק תעשיית הטכנולוגיה הדיגיטלית הורה.
מקור: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm
תגובה (0)