
چتبات بزرگسالان با قابلیت تأیید سن و هشدارهای ایمنی برای کودکان.
تأیید OpenAI مبنی بر اینکه از دسامبر ۲۰۲۵ به کاربران بزرگسال تأیید شده اجازه میدهد به محتوای بزرگسالان در ChatGPT دسترسی داشته باشند، به عنوان یک نقطه عطف مهم برای این صنعت تلقی میشود، که هم رشد بازار را افزایش میدهد و هم استاندارد جدیدی را برای محافظت از افراد زیر سن قانونی تعیین میکند.
چتباتهای بزرگسالان - مسیر مسابقه جدید برای هوش مصنوعی.
پلتفرمهای هوش مصنوعی به سرعت مدلهایی را برای رفع نیازهای بزرگسالان، از مکالمات صمیمانه گرفته تا حمایت عاطفی، به کار گرفتهاند.
به گفته سم آلتمن، مدیرعامل OpenAI، ChatGPT قبلاً برای جلوگیری از خطرات سلامت روان «به شدت محدود» شده بود، اما این رویکرد باعث شد این مدل برای بسیاری از کاربران «کمتر مفید و کمتر جذاب» باشد. او گفت OpenAI در حال تغییر به اصل «رفتار با بزرگسالان به عنوان بزرگسال» است.
اضافه شدن حالت دسترسی کنترلشده برای کاربران تأییدشده، بازار چتباتهای بزرگسالان را که از قبل هم به سرعت در حال رشد بود، بیش از پیش رونق بخشیده است.
چشمانداز رقابتی حتی شفافتر شده است، زیرا اخیراً xAI ایلان ماسک توسط رسانههای بینالمللی در مورد تواناییاش در ایجاد محتوای بزرگسالانه مرتبط با سلبریتیها مورد سوال قرار گرفته و در نتیجه درخواستهای فوری برای استانداردهای حفاظتی جدید مطرح شده است.
«مشکل» تأیید سن.
دسترسی آزاد به محتوای بزرگسالان یک چالش بزرگ را ایجاد میکند: تأیید سن کاربر. تأیید با استفاده از مدارک شناسایی، قابلیت اطمینان بالایی را ارائه میدهد، اما خطراتی را برای حریم خصوصی و امنیت دادههای شخصی به همراه دارد. در همین حال، روشهای تأیید رفتاری یا زبانی مبتنی بر هوش مصنوعی به مجموعه دادههای بزرگ و مدلهای پیچیده نیاز دارند و همچنان خطر دور زدن توسط کاربران را به همراه دارند.
این چالش با ویژگیهای تولید محتوای هوش مصنوعی بیشتر تشدید میشود. چتباتها میتوانند اطلاعات جدید را در لحظه تولید کنند، مکالمات را به شیوههای حساس گسترش دهند یا درخواستهای مبهم را به محتوای نامناسب تفسیر کنند.
وقتی مدل از رسانههای متعددی مانند تصویر، صدا و ویدیو پشتیبانی میکند، خطرات به طرز چشمگیری افزایش مییابد. هرگونه توانایی برای شبیهسازی یا ترکیب محتوای حساس شامل افراد زیر سن قانونی، حتی به صورت شبیهسازی شده، باید کاملاً ممنوع شود و توسعهدهندگان را ملزم به ایجاد مکانیسمهای کنترلی از لایه طراحی مدل تا لایه فیلتر محتوا میکند.
فشار مسئولیتپذیری بر کسبوکارهای هوش مصنوعی
خبر فعال شدن حالت محتوای بزرگسالان توسط OpenAI باعث نگرانی بسیاری از سازمانهای حمایت از کودکان شده است. آنها هشدار میدهند که مشروعیت بخشیدن به محتوای بزرگسالان با استفاده از هوش مصنوعی میتواند ناخواسته افراد زیر سن قانونی را به دنبال راههایی برای «عبور از خط قرمز» تشویق کند.
در ویتنام، بسیاری از والدین نیز ابراز نگرانی کردهاند که پلتفرمی که به طور سنتی با یادگیری مرتبط است، مانند ChatGPT، حالتی را برای بزرگسالان معرفی کرده است.
این فشارها شرکتهای هوش مصنوعی را مجبور میکند تا اصل «ایمنی از طریق طراحی» را به طور کامل اجرا کنند: کنترل دادههای آموزشی، نظارت بر ورودی و خروجی، استقرار فیلترهای بلادرنگ و حفظ سازوکارهای حسابرسی منظم.
شفافیت در عملیات، افشای عمومی اقدامات حفاظتی و پذیرش بازخورد جامعه، به الزامات اجباری برای ایجاد محیطی امن برای بزرگسالان بدون ایجاد خطر برای گروههای آسیبپذیر کاربران تبدیل میشوند.
تصمیم OpenAI برای اجازه دادن به کاربران تأیید شده برای دسترسی به محتوای بزرگسالان نه تنها یک نقطه عطف تجاری است، بلکه یادآوری میکند که نوآوریهای تکنولوژیکی باید با استانداردهای مسئولانه همراه باشند.
برای اینکه اکوسیستم هوش مصنوعی به طور پایدار رشد کند، کسبوکارها باید ایمنی را در اولویت قرار دهند و تعادلی بین نوآوری و مسئولیت محافظت از جامعه برقرار کنند.
منبع: https://tuoitre.vn/openai-bat-che-do-18-บน-chatgpt-lam-sao-bao-ve-tre-vi-thanh-nien-2025121111362172.htm






نظر (0)