Baidu Baike, het Chinese equivalent van Wikipedia, heeft onlangs zijn robots.txt-bestand geüpdatet. Dit is het bestand dat zoekmachines vertelt welke webadressen ze mogen bezoeken. Bovendien heeft het Googlebot en Bingbot volledig geblokkeerd, zodat ze de content van het platform niet meer kunnen indexeren.
Foto: Shutterstock
Deze stap laat zien dat Baidu zijn online activa probeert te beschermen nu er steeds meer vraag is naar big data om modellen en toepassingen voor kunstmatige intelligentie (AI) te ontwikkelen.
Na de robots.txt-update van Baidu Baike bleek uit onderzoek van SCMP dat veel items van het platform nog steeds in de zoekresultaten van Google en Bing verschenen, mogelijk afkomstig van eerder gearchiveerde oude content.
Meer dan twee jaar nadat OpenAI ChatGPT lanceerde, sluiten veel van 's werelds grootste AI-ontwikkelaars overeenkomsten met contentuitgevers om toegang te krijgen tot kwalitatieve content voor hun GenAI-projecten.
OpenAI sloot in juni een overeenkomst met Time Magazine om toegang te krijgen tot het volledige archief van het tijdschrift, dat meer dan 100 jaar aan geschiedenis bevat.
Cao Phong (volgens SCMP)
Bron: https://www.congluan.vn/baidu-chan-google-va-bing-thu-thap-noi-dung-truc-tuyen-post309081.html
Reactie (0)