מחקר חדש שפורסם בכתב העת המדעי Proceedings of the National Academy of Sciences (PNAS) מראה כי בעוד שבינה מלאכותית גנרטורה כמו ChatGPT יכולה לעזור לעובדים להשלים משימות מהר וביעילות רבה יותר, היא גובה מחיר חברתי: הם נוטים יותר להיתפס על ידי אחרים כעצלנים, חסרי יכולת או חסרי יכולת.
המחקר, שנערך על ידי צוות של מדעני חברה, מבוסס על תיאוריית הייחוס - הרעיון שאנשים נוטים לפרש את פעולותיהם של אחרים על סמך המוטיבציות או היכולות הפנימיות שלהם ולא על סמך הנסיבות. לדוגמה, בקשת עזרה נתפסת לעיתים כסימן לחולשה אישית. באופן דומה, שימוש בבינה מלאכותית יכול להיתפס כחוסר יכולת או מאמץ, ולא ככלי תקף ליעילות.

בארבעה ניסויים שכללו יותר מ-4,400 משתתפים, הצוות מצא תוצאות יוצאות דופן. בניסוי הראשון, המשתתפים דמיינו ביצוע משימה באמצעות בינה מלאכותית או כלים מסורתיים, ואז ניבאו כיצד ישפטו אותם עמיתיהם ומנהליהם. אנשים אלה חששו שייתפסו כעצלנים, ניתנים להחלפה ופחות חרוצים. הם אמרו שלא רצו לפרסם את השימוש שלהם בבינה מלאכותית.
ניסוי שני הראה כי הטיה זו אכן קיימת. המשתתפים התבקשו לדרג עובד היפותטי: עובד שהשתמש בבינה מלאכותית, עובד שביקש עזרה מעמית לעבודה, ועובד שעשה זאת בעצמו. משתמשי הבינה המלאכותית נתפסו כעצלנים יותר, פחות מוכשרים, פחות חרוצים ופחות עצמאיים משתי הקבוצות האחרות. באופן מפתיע, תפיסה זו הייתה עקבית ללא קשר למגדר, גיל או תעשייה של העובד המתואר.
ניסוי שלישי בדק האם הטיות אלו השפיעו על החלטות בפועל. קבוצת משתתפים אחת פעלה כמגייסים, ובחרה מועמדים על סמך האם המועמדים השתמשו בבינה מלאכותית בעבודתם. קבוצת המגייסים שלא הכירה בינה מלאכותית נטתה לבחור מועמדים שגם הם לא השתמשו בבינה מלאכותית. לעומת זאת, אלו שהשתמשו בבינה מלאכותית לעתים קרובות הרגישו בנוח יותר ונטו לבחור מועמדים שעשו זאת. ממצא זה מצביע על כך שלניסיון אישי עם הטכנולוגיה יש השפעה גדולה על עמדות המעריכים.
בניסוי סופי, הצוות בדק האם מצבי עבודה ספציפיים ישנו את ההטיה הזו. כאשר מועמדים הגישו מועמדות למשימות דיגיטליות, כמו כתיבת מיילים, משתמשי בינה מלאכותית לא נתפסו כעצלנים ואף דורגו גבוה יותר. עם זאת, כאשר מועמדים הגישו מועמדות למשימות ידניות, כמו רישום הערות ידני, משתמשי בינה מלאכותית עדיין דורגו נמוך יותר. התוצאות הראו שההטיות החזקות ביותר התרחשו כאשר משתמשי בינה מלאכותית ביצעו משימות שלא דרשו בינה מלאכותית.
מעניין לציין, משתתפים שהודו בשימוש קבוע בבינה מלאכותית נטו פחות לשפוט אחרים באופן שלילי, דבר המצביע על כך שהיכרות וניסיון מהעולם האמיתי יכולים להפחית סטיגמה. המחברת הראשית של הפרויקט, ג'סיקה רייף, דוקטורנטית בבית הספר לעסקים פוקואה באוניברסיטת דיוק, אמרה שהיא החלה את הפרויקט לאחר ששמעה מעובדים שהביעו חששות לגבי שיפוט בעת שימוש בבינה מלאכותית, למרות שביצועי עבודתם לא ירדו.
למחקר זה יתרונות מתודולוגיים כגון מצבי בקרה שנבנו בקפידה. עם זאת, המחבר מכיר גם במגבלות, כגון שהמצבים הם היפותטיים ולא תצפיות ממשיות, והמעריכים אינם מכירים ישירות את האנשים המדורגים, דבר שעשוי להיות שונה בסביבת עבודה אמיתית.
ממצאים אלה מדגישים כי בעוד שבינה מלאכותית הופכת לכלי שימושי המסייע בהגברת הפרודוקטיביות, השימוש בבינה מלאכותית צריך גם לשקול כיצד היא משפיעה על התדמית האישית והמוניטין. תוצאות המחקר הן תזכורת: כדי שבינה מלאכותית תהפוך באמת לעוזרת יעילה, סביבת העבודה עצמה צריכה לשנות את התפיסה שלה, תוך הימנעות מתווית חפוזה של משתמשי בינה מלאכותית כחסרי יכולת או עצלנים. בנוסף לידיעה כיצד לנצל את הטכנולוגיה, עובדים צריכים גם לשמור על שקיפות, תוך פיתוח מיומנויות וחותמים אישיים כדי לא "להתמוסס" בתדמית שנוצרת על ידי בינה מלאכותית.
(לפי פסיפוסט)

מקור: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html
תגובה (0)