תכונת ניטור הילדים ב-ChatGPT גם עוזרת להורים להרגיש בטוחים יותר כאשר הם מאפשרים לילדיהם להשתמש בבינה מלאכותית.
כלי ניטור הילדים ChatGPT הקרוב נתפס כשינוי בטיחותי מ-OpenAI בעקבות תביעה מתוקשרת. התכונה נועדה להפחית את הסיכון שילדים ישוחחו בצ'אטבוטים, ובמקביל לעורר שאלות לגבי האחריות החברתית של חברות בינה מלאכותית.
מהתביעה המזעזעת
באוגוסט האחרון, משפחתו של אדם ריין, נער בן 16 מקליפורניה, הגישה תביעה נגד OpenAI, בטענה ש-ChatGPT סיפקה הוראות לפגיעה עצמית והתעללות מילולית שהותירו את בנם בתחושה של ייאוש לפני שהתאבד.
התביעה עוררה במהרה סערה ופתחה בדיון על בטיחות הבינה המלאכותית עבור משתמשים צעירים.
זה מעלה שאלות חשובות: האם קטינים צריכים להשתמש ב-ChatGPT ללא פיקוח, וכיצד יש לקבוע את אחריותם של מפתחי בינה מלאכותית כאשר המוצר משפיע ישירות על הפסיכולוגיה של משתמשים צעירים?
בתגובה ללחץ זה, הכריזה OpenAI על הוספת בקרות הורים, צעד ראשון לקראת הדגמת מחויבותה להגנה על ילדים ואותת שהחברה מוכנה להעמיד את הבטיחות במקום הראשון בשלב הבא של פיתוח ChatGPT.
תכונות ניטור ב-ChatGPT
על פי ההודעה הרשמית, OpenAI תשיק כלי שיאפשר להורים לקשר את חשבונותיהם לחשבונות ChatGPT של ילדיהם. לאחר הפעלתו, הורים יוכלו לנהל הגדרות חשובות כגון כיבוי אחסון צ'אט, שליטה בהיסטוריית השימוש והתאמת רמות אינטראקציה המתאימות לגיל.
גולת הכותרת של החידוש הזה היא מערכת ההתרעה. ChatGPT יוכשר לזהות מתי משתמשים צעירים מראים סימנים של משבר פסיכולוגי, כגון לחץ, דיכאון או פגיעה עצמית. במקרים אלה, ההורים יקבלו התראות להתערבות מיידית. OpenAI טוענת שהמטרה אינה לנטר את השיחה כולה, אלא להתמקד במצבי חירום כדי להגן על בטיחות הילדים.
בנוסף, כאשר מזוהה תוכן רגיש, ChatGPT יעבור לפעולה עם מודלים של חשיבה עמוקה, שנועדו לספק תגובות מושכלות ותומכות יותר. במקביל, החברה עובדת גם עם מומחים רפואיים ועם ועדה מייעצת בינלאומית כדי להמשיך ולשפר את ההגנות שלה בתקופה הקרובה.
האתגרים שהוצגו
בעוד ש-OpenAI הדגישה כי התכונה החדשה נועדה להועיל למשפחות, התגובה הבינלאומית הייתה מעורבת. הכלי צפוי להוסיף שכבת הגנה להורים כאשר ילדיהם מקיימים אינטראקציה עם בינה מלאכותית, אך הוא גם עורר חששות ארוכי שנים, החל ממגבלות שימוש ועד פרטיות נתוני ילדים.
למעשה, חששות בנוגע לפרטיות המידע של ילדים מועלים על ידי מומחים במשך שנים. אזהרות אלה מדגישות כי אחסון וניתוח היסטוריית צ'אט של ילדים, ללא הגנות מחמירות, עלולים להגביר את הסיכון לחשיפת מידע רגיש. הופעתם של כלי ניטור ב-ChatGPT החזירה את הנושא לאור הזרקורים.
נקודה נוספת שנדונה הייתה סף האזהרה של המערכת. OpenAI אמרה ש-ChatGPT יזהה סימנים של לחץ חמור וישלח התראה להורים.
עם זאת, למידת מכונה תמיד נושאת את הסיכון להטיה. אם המערכת נותנת אזעקת שווא, ההורים עלולים להתבלבל שלא לצורך. לעומת זאת, אם היא מפספסת אות, ילדים עלולים להתמודד עם סיכונים שהמשפחה לא תוכל להתערב בזמן.
ארגונים בינלאומיים להגנת ילדים עקבו מקרוב אחר המהלך של OpenAI, והכירו בכלי בקרת ההורים כסימן חיובי, אך הזהירו כי היעדר אימות גיל קפדני והגנות ברירת מחדל פירושו שילדים עדיין עלולים להתמודד עם סיכונים, אפילו עם פיקוח הורי.
דיונים אלה מראים כי פיתוח הבינה המלאכותית אינו רק סיפור טכנולוגי, אלא גם קשור קשר הדוק לאחריות חברתית ולבטיחות הדור הצעיר.
טהאן חמישי
מקור: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm
תגובה (0)