יכולתו של המודל להסיק מסקנות, לפתור בעיות מתמטיות מורכבות ולענות על שאלות מחקר מדעיות נתפסת כצעד משמעותי קדימה במאמץ לפתח בינה כללית מלאכותית (AGI) - מכונות בעלות יכולות קוגניטיביות דמויות אנוש.
חברת OpenAI מסרה כי היא "זהירה" במיוחד לגבי האופן שבו היא מציגה את דגם ה-o1 לציבור בהתחשב ביכולותיו המתקדמות. צילום: Getty Images
על פי הפייננשל טיימס, OpenAI דירגה את הסיכון של המודלים החדשים הללו כ"בינוני" בנוגע לסוגיות הקשורות לנשק כימי, ביולוגי, רדיולוגי וגרעיני (CBRN), הגבוה ביותר שהחברה העריכה אי פעם. משמעות הדבר היא שהטכנולוגיה "שיפרה משמעותית" את יכולתם של מומחים ליצור נשק ביולוגי.
מומחים אומרים שתוכנת בינה מלאכותית המסוגלת להיגיון מפורט, במיוחד בידי גורמים פושעים, עלולה להגביר את הסיכון לניצול לרעה.
פרופסור יהושע בנג'יו, מדען מוביל בעולם בתחום הבינה המלאכותית מאוניברסיטת מונטריאול, הדגיש כי רמת הסיכון הבינונית הזו מגבירה את הדחיפות בתקנות בתחום הבינה המלאכותית, כמו SB 1047, הנידונות כעת בקליפורניה. הצעת חוק זו מחייבת את יצרני הבינה המלאכותית לנקוט צעדים להפחתת הסיכון לשימוש לרעה במודלים שלהם לפיתוח נשק ביולוגי.
על פי The Verge, האבטחה והבטיחות של מודלים של בינה מלאכותית הפכו לדאגה מרכזית, שכן חברות טכנולוגיה כמו גוגל, מטה ואנתרופיק מתחרות בבניית ושיפור מערכות בינה מלאכותית מתקדמות.
למערכות אלו יש פוטנציאל להביא יתרונות רבים בסיוע לבני אדם להשלים משימות ובסיוע במגוון תחומים, אך הן גם מציבות אתגרים מבחינת בטיחות ואחריות חברתית.
קאו פונג (לפי FT, רויטרס, The Verge)
[מודעה_2]
מקור: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html






תגובה (0)