Kürzlich hat Baidu Baike – das chinesische Pendant zu Wikipedia – seine robots.txt-Datei aktualisiert – die Datei, die Suchmaschinen anweist, auf welche Webadressen sie zugreifen dürfen – und Googlebot und Bingbot vollständig daran gehindert, Inhalte der Plattform zu indexieren.
Foto: Shutterstock
Dieser Schritt zeigt, dass Baidu versucht, seine Online-Ressourcen angesichts der wachsenden Nachfrage nach Big Data zur Entwicklung von Modellen und Anwendungen künstlicher Intelligenz (KI) zu schützen.
Nach der Aktualisierung der robots.txt-Datei von Baidu Baike stellte eine Untersuchung der SCMP fest, dass viele Elemente der Plattform weiterhin in den Suchergebnissen von Google und Bing auftauchten, möglicherweise aufgrund zuvor archivierter alter Inhalte.
Mehr als zwei Jahre nach dem Start von ChatGPT durch OpenAI schließen viele der weltweit führenden KI-Entwickler Verträge mit Content-Anbietern ab, um Zugang zu qualitativ hochwertigen Inhalten für ihre GenAI-Projekte zu erhalten.
OpenAI hat im Juni einen Vertrag mit dem Time Magazine unterzeichnet, um Zugang zum gesamten Archiv des Magazins mit seiner über 100-jährigen Geschichte zu erhalten.
Cao Phong (laut SCMP)
Quelle: https://www.congluan.vn/baidu-chan-google-va-bing-thu-thap-noi-dung-truc-tuyen-post309081.html






Kommentar (0)