ویژگی نظارت بر کودک در ChatGPT همچنین به والدین کمک میکند تا هنگام اجازه دادن به فرزندانشان برای استفاده از هوش مصنوعی، احساس امنیت بیشتری داشته باشند.
ابزار نظارت بر کودکان ChatGPT که به زودی عرضه میشود، به عنوان یک تغییر امنیتی نسبت به OpenAI پس از یک دعوی حقوقی مهم تلقی میشود. این ویژگی با هدف کاهش خطر چت کودکان با چتباتها ارائه شده است، ضمن اینکه سوالاتی را در مورد مسئولیت اجتماعی شرکتهای هوش مصنوعی مطرح میکند.
از دعوی تکان دهنده
در ماه اوت گذشته، خانواده آدام رین، پسر ۱۶ ساله اهل کالیفرنیا، علیه OpenAI شکایت کردند و ادعا کردند که ChatGPT دستورالعملهای خودآزاری و توهینهای کلامی ارائه داده است که باعث ناامیدی پسرشان شده و او را قبل از خودکشی به دردسر انداخته است.
این دعوی حقوقی به سرعت سر و صدا به پا کرد و بحثی را در مورد ایمنی هوش مصنوعی برای کاربران جوان آغاز کرد.
این موضوع سوالات مهمی را مطرح میکند: آیا افراد زیر سن قانونی باید بدون نظارت از ChatGPT استفاده کنند، و وقتی محصول مستقیماً بر روانشناسی کاربران جوان تأثیر میگذارد، مسئولیت توسعهدهندگان هوش مصنوعی چگونه باید تعیین شود؟
در پاسخ به این فشار، OpenAI از اضافه شدن کنترلهای والدین خبر داد، که اولین گام برای نشان دادن تعهدش به محافظت از کودکان و نشان دادن این است که این شرکت مایل است در مرحله بعدی توسعه ChatGPT، ایمنی را در اولویت قرار دهد.
ویژگیهای نظارتی در ChatGPT
طبق اعلام رسمی، OpenAI ابزاری را منتشر خواهد کرد که به والدین اجازه میدهد حسابهای خود را به حسابهای ChatGPT فرزندانشان پیوند دهند. پس از فعالسازی، والدین میتوانند تنظیمات مهمی مانند خاموش کردن فضای ذخیرهسازی چت، کنترل سابقه استفاده و تنظیم سطوح تعامل متناسب با سن را مدیریت کنند.
نکته برجسته این نوآوری، سیستم هشدار است. ChatGPT آموزش داده خواهد شد تا تشخیص دهد چه زمانی کاربران جوان علائم بحران روانی مانند استرس، افسردگی یا خودآزاری را نشان میدهند. در این موارد، والدین اعلانهایی دریافت میکنند تا فوراً مداخله کنند. OpenAI ادعا میکند که هدف، نظارت بر کل مکالمه نیست، بلکه تمرکز بر موقعیتهای اضطراری برای محافظت از ایمنی کودکان است.
علاوه بر این، هنگامی که محتوای حساس شناسایی شود، ChatGPT به کار با مدلهای استدلال عمیق روی خواهد آورد که برای ارائه پاسخهای متفکرانهتر و حمایتیتر طراحی شدهاند. به موازات آن، این شرکت همچنین با متخصصان پزشکی و یک هیئت مشاوره بینالمللی همکاری میکند تا در آینده به اصلاح روشهای حفاظتی خود ادامه دهد.
چالشهای مطرح شده
در حالی که OpenAI تأکید کرده است که این ویژگی جدید به نفع خانوادهها طراحی شده است، واکنش بینالمللی متفاوت بوده است. انتظار میرود این ابزار یک لایه محافظتی برای والدین در تعامل فرزندانشان با هوش مصنوعی ایجاد کند، اما نگرانیهای دیرینهای را نیز برانگیخته است، از محدودیتهای استفاده گرفته تا حریم خصوصی دادههای کودکان.
در واقع، نگرانیها در مورد حریم خصوصی دادههای کودکان سالهاست که توسط کارشناسان مطرح شده است. این هشدارها نشان میدهد که ذخیره و تجزیه و تحلیل تاریخچه چت کودکان، بدون محافظت دقیق، میتواند خطر افشای اطلاعات حساس را افزایش دهد. ظهور ابزارهای نظارتی در ChatGPT این موضوع را دوباره در کانون توجه قرار داده است.
نکته دیگری که مورد بحث قرار گرفت، آستانه هشدار سیستم بود. OpenAI اعلام کرد که ChatGPT علائم استرس شدید را تشخیص داده و به والدین هشدار میدهد.
با این حال، یادگیری ماشینی همیشه خطر سوگیری را به همراه دارد. اگر سیستم هشدار اشتباه بدهد، والدین ممکن است بیجهت گیج شوند. برعکس، اگر سیگنالی را از دست بدهد، کودکان ممکن است با خطراتی مواجه شوند که خانواده نتواند به موقع مداخله کند.
سازمانهای بینالمللی حفاظت از کودکان نیز از نزدیک اقدام OpenAI را زیر نظر داشتهاند و ابزار کنترل والدین را به عنوان یک نشانه مثبت پذیرفتهاند، اما هشدار دادهاند که عدم تأیید دقیق سن و محافظتهای پیشفرض به این معنی است که کودکان حتی با نظارت والدین نیز میتوانند با خطراتی روبرو شوند.
این بحثها نشان میدهد که توسعه هوش مصنوعی نه تنها یک داستان تکنولوژیکی است، بلکه با مسئولیت اجتماعی و ایمنی نسل جوان نیز ارتباط تنگاتنگی دارد.
تان پنجشنبه
منبع: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm






نظر (0)