וייטנאם קיבלה את הסט הראשון שלה של כללי אתיקה בתחום הבינה המלאכותית
בינה מלאכותית (AI) צפויה להביא יתרונות רבים לאנשים, לחברה ולכלכלה הווייטנאמית. יחד עם יישום הבינה המלאכותית, וייטנאם חקרה ונקטה צעדים ראשונים למזעור הסיכונים בתהליך הפיתוח והשימוש בבינה מלאכותית, תוך איזון בין גורמים כלכליים, אתיים ומשפטיים.
זו גם הסיבה לכך שמשרד המדע והטכנולוגיה (MOST) פרסם סדרה של מסמכים המנחים מספר עקרונות בנושא מחקר ופיתוח אחראיים של מערכות בינה מלאכותית.
מסמך ההנחיות קובע מספר עקרונות כלליים והמלצות מרצון לעיון ויישום במחקר, תכנון, פיתוח ואספקה של מערכות בינה מלאכותית.
סוכנויות מדעיות וטכנולוגיות, ארגונים, עסקים ויחידים העוסקים במחקר, תכנון, פיתוח ואספקה של מערכות בינה מלאכותית מוזמנים ליישם מסמך הנחיות זה.

בהתאם לכך, מחקר ופיתוח של מערכות בינה מלאכותית בווייטנאם צריכים להתבסס על נקודת המבט הבסיסית של תנועה לעבר חברה הממוקדת באדם, שבה כולם נהנים מיתרונות הבינה המלאכותית, תוך הבטחת איזון סביר בין תועלת לסיכונים.
פעילויות מחקר ופיתוח של מערכות בינה מלאכותית בווייטנאם מכוונות להבטיח ניטרליות טכנולוגית. בכל המקרים, משרד המדע והטכנולוגיה מעודד חילופי דברים ודיונים בהשתתפות הגורמים הרלוונטיים. עקרונות והנחיות ימשיכו להיחקר ולעודכן כדי להתאים למצבים מעשיים.
משרד המדע והטכנולוגיה אמר כי לידת סט המסמכים נועדה לקדם עניין במחקר, פיתוח ושימוש בבינה מלאכותית בווייטנאם בצורה בטוחה ואחראית, תוך מזעור ההשפעות השליליות על אנשים ועל הקהילה. הדבר יגביר את אמון המשתמשים והחברה בבינה מלאכותית ויקל על המחקר והפיתוח של בינה מלאכותית בווייטנאם.
עקרונות לפיתוח בינה מלאכותית אחראי
במסמך, מפתחים מעודדים להפגין רוח של שיתוף פעולה, לקדם חדשנות באמצעות חיבור ואינטראקציה בין מערכות בינה מלאכותית. על המפתחים להבטיח שקיפות על ידי שליטה בקלט/פלט של מערכות בינה מלאכותית ויכולת להסביר ניתוחים רלוונטיים.
מפתחים צריכים לשים לב ליכולת לשלוט במערכות בינה מלאכותית ולהעריך את הסיכונים הכרוכים בכך מראש. אחת השיטות להערכת סיכונים היא לבצע בדיקות בחלל נפרד כמו מעבדה או סביבה שבה אבטחה ובטיחות מובטחות לפני יישום מעשי.
בנוסף, כדי להבטיח את יכולת השליטה של מערכות בינה מלאכותית, על מפתחים לשים לב לניטור המערכת (שימוש בכלי הערכה/ניטור או התאמה/עדכון המבוססים על משוב משתמשים) ולאמצעי תגובה (כיבוי מערכת, כיבוי רשת וכו') המבוצעים על ידי בני אדם או מערכות בינה מלאכותית מהימנות.

על המפתחים להבטיח שמערכת הבינה המלאכותית לא תגרום נזק לחייהם, לגופם או לרכושם של משתמשים או צדדים שלישיים, לרבות באמצעות מתווכים; יש לשים לב לאבטחת מערכת הבינה המלאכותית, לאמינותה וליכולתה לעמוד בפני התקפות פיזיות או תאונות; יש להבטיח שמערכת הבינה המלאכותית לא תפגע בפרטיותם של משתמשים או צדדים שלישיים. זכויות הפרטיות המוזכרות בעיקרון כוללות את הזכות לפרטיות במרחב (שלום בחיים האישיים), את הזכות לפרטיות מידע (נתונים אישיים) ואת סודיות התקשורת.
בעת פיתוח מערכות בינה מלאכותית, על המפתחים לנקוט משנה זהירות בכיבוד זכויות אדם וכבוד. ככל האפשר, בהתאם למאפייני הטכנולוגיה המיושמת, על המפתחים לנקוט באמצעים כדי להבטיח שלא יגרמו לאפליה או חוסר הוגנות עקב הטיה (דעה קדומה) בנתוני האימון. לא רק זאת, על המפתחים לממש את אחריותם כלפי בעלי העניין ולתמוך במשתמשים.
[מודעה_2]
מקור: https://vietnamnet.vn/viet-nam-ra-nguyen-tac-ai-khong-duoc-gay-ton-hai-tinh-mang-tai-san-nguoi-dung-2292026.html






תגובה (0)