اخیراً، بایدو بایک - معادل چینی ویکیپدیا - فایل robots.txt خود را بهروزرسانی کرد، که به موتورهای جستجو دستور میدهد به کدام آدرسهای وب دسترسی داشته باشند و بهطور کامل مانع از ایندکس کردن محتوای پلتفرم خود توسط رباتهای گوگل و بینگ شد.
عکس: شاتر استوک
این اقدام، تلاشهای بایدو برای محافظت از داراییهای آنلاین خود در بحبوحه تقاضای روزافزون برای کلاندادهها جهت توسعه مدلها و برنامههای هوش مصنوعی (AI) را نشان میدهد.
پس از بهروزرسانی robots.txt بایدو بایک، یک بررسی SCMP نشان داد که بسیاری از ورودیهای این پلتفرم هنوز در نتایج جستجوی گوگل و بینگ ظاهر میشوند، احتمالاً از محتوای بایگانیشده قبلی.
بیش از دو سال پس از راهاندازی ChatGPT توسط OpenAI، بسیاری از توسعهدهندگان بزرگ هوش مصنوعی در جهان در حال امضای قراردادهایی با ناشران محتوا هستند تا به محتوای باکیفیت برای پروژههای GenAI خود دسترسی داشته باشند.
شرکت OpenAI در ماه ژوئن قراردادی با مجله تایم امضا کرد تا به کل آرشیو ۱۰۰ ساله آن دسترسی داشته باشد.
کائو فونگ (طبق SCMP)
منبع: https://www.congluan.vn/baidu-chan-google-va-bing-thu-thap-noi-dung-truc-tuyen-post309081.html







نظر (0)