اخیراً، بایدو بایک - معادل چینی ویکیپدیا - فایل robots.txt خود - فایلی که به موتورهای جستجو دستور میدهد به کدام آدرسهای وب دسترسی داشته باشند - را بهروزرسانی کرده و بهطور کامل مانع از ایندکس کردن محتوای این پلتفرم توسط رباتهای گوگل و بینگ شده است.
عکس: شاتر استوک
این اقدام نشان میدهد که بایدو در تلاش است تا در بحبوحه تقاضای روزافزون برای کلاندادهها برای توسعه مدلها و برنامههای هوش مصنوعی (AI)، از داراییهای آنلاین خود محافظت کند.
پس از بهروزرسانی robots.txt بایدو بایک، تحقیقات SCMP نشان داد که بسیاری از موارد این پلتفرم هنوز در نتایج جستجوی گوگل و بینگ ظاهر میشوند، احتمالاً از محتوای قدیمی بایگانیشده قبلی.
بیش از دو سال پس از راهاندازی ChatGPT توسط OpenAI، بسیاری از توسعهدهندگان بزرگ هوش مصنوعی در جهان در حال امضای قراردادهایی با ناشران محتوا هستند تا به محتوای باکیفیت برای پروژههای GenAI خود دسترسی پیدا کنند.
شرکت OpenAI در ماه ژوئن قراردادی با مجله تایم امضا کرد تا به کل آرشیو بیش از ۱۰۰ ساله این مجله دسترسی داشته باشد.
کائو فونگ (طبق SCMP)
منبع: https://www.congluan.vn/baidu-chan-google-va-bing-thu-thap-noi-dung-truc-tuyen-post309081.html






نظر (0)