در اقدامی که به عنوان حفاظت از مالکیت معنوی شرکت تلقی میشود، OpenAI به تازگی الزام تأیید هویت دولتی را برای توسعهدهندگانی که به دنبال دسترسی به پیشرفتهترین مدلهای هوش مصنوعی (AI) آن هستند، اجرا کرده است.
OpenAI به درخواست اظهار نظر در مورد اطلاعات فوق پاسخی نداده است.
با این حال، در این اطلاعیه، «خالق» برنامه ChatGPT توضیح داد که دلیل معرفی فرآیند تأیید جدید این بوده است که برخی از توسعهدهندگان عمداً از رابطهای برنامهنویسی کاربردی (API) OpenAI استفاده کردهاند و در نتیجه سیاست استفاده از این شرکت را نقض کردهاند.
اگرچه این شرکت رسماً دلیل این کار را جلوگیری از سوءاستفاده اعلام کرد، اما به نظر میرسد این اقدام از نگرانی عمیقتری ناشی میشود: اینکه خروجی مدلهای OpenAI توسط رقبا برای آموزش سیستمهای هوش مصنوعی خود جمعآوری میشود.
این موضوع توسط یک مطالعه جدید از Copyleaks، شرکتی متخصص در تشخیص محتوای هوش مصنوعی، نشان داده شده است.
کپیلیکس با استفاده از یک سیستم تشخیص «اثر انگشت» مشابه با مدلهای بزرگ هوش مصنوعی، کشف کرد که تقریباً ۷۴٪ از خروجی مدل رقیب DeepSeek-R1 (چین) را میتوان به عنوان نوشته شده توسط OpenAI طبقهبندی کرد. این رقم نه تنها نشاندهندهی کپیبرداری، بلکه تقلید نیز هست.
کپیلیکس همچنین مدلهای هوش مصنوعی دیگری مانند phi-4 مایکروسافت و Grok-1 xAI را بررسی کرد. نتایج تقریباً هیچ شباهتی با OpenAI نشان نداد، با نرخ «اختلاف» به ترتیب ۹۹.۳٪ و ۱۰۰٪. مدل Mixtral میسترال نیز شباهتهایی داشت.
این مطالعه یک واقعیت را برجسته میکند: حتی وقتی از مدلها خواسته میشود با لحنها یا قالبهای مختلف بنویسند، باز هم امضاهای سبکی قابل تشخیصی از خود به جا میگذارند - شبیه به اثر انگشتهای زبانی.
این ردپاها در وظایف، موضوعات و دستورالعملهای مختلف باقی میمانند و میتوان با درجهی خاصی از دقت، منشأ آنها را ردیابی کرد.
در همین حال، برخی منتقدان خاطرنشان میکنند که خود OpenAI مدلهای اولیه خود را با جمعآوری دادهها از وب، از جمله محتوای ناشران اخبار، نویسندگان و سازندگان - اغلب بدون رضایت آنها - ساخته است.
آلون یامین، مدیرعامل کپیلیکس، به دو مشکل اشاره کرد: آموزش مدلهای انسانی با محتوای دارای حق نشر بدون اجازه و استفاده از خروجی سیستمهای هوش مصنوعی اختصاصی برای آموزش مدلهای رقیب - اساساً مهندسی معکوس محصول رقیب.
یامین استدلال میکند که اگرچه هر دو روش از نظر اخلاقی بحثبرانگیز هستند، آموزش با استفاده از خروجی OpenAI یک ریسک رقابتی ایجاد میکند، زیرا اساساً از نوآوریهای دشوار برای دستیابی بدون رضایت یا جبران خسارت توسعهدهنده اصلی سوءاستفاده میکند.
همزمان با رقابت شرکتهای هوش مصنوعی برای ساخت مدلهای قدرتمندتر، بحث بر سر اینکه چه کسی مالک چه چیزی است و چه کسی میتواند بر اساس چه دادههایی آموزش ببیند، شدیدتر میشود.
ابزارهایی مانند سیستم انگشتنگاری دیجیتال Copyleaks روشی بالقوه برای ردیابی و تأیید حق چاپ در الگوها ارائه میدهند.
منبع: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






نظر (0)