KI „stiehlt“ den Verkehr von Websites
Während die KI immer besser wird und schnell und präzise antwortet, klicken die Nutzer immer weniger auf die Quellwebsite. Dies führt dazu, dass viele Inhaltsanbieter und Online-Zeitungen viel Verkehr verlieren.
Einige der weltweit größten Internet-Infrastrukturunternehmen warnen, dass dieser Trend Teile des Internets der Gefahr einer Abschnürung aussetzen könnte.
KI antwortet schnell, „vergisst“ aber die Originalseite
Wenn Sie früher bei Google oder anderen Suchmaschinen nach Informationen suchten, enthielten die Ergebnisse eine Liste von Websites, auf die die Benutzer klicken konnten. Mit KI-Tools wie ChatGPT, Google AI Overview oder Perplexity werden die Informationen jedoch zusammengefasst und den Benutzern angezeigt, sodass sie nicht mehr die Originalquelle aufrufen müssen.
Experten für Netzwerkinfrastruktur zufolge nimmt die Anzahl der Besuche nach dem Scannen von Inhalten durch KI-Bots deutlich ab. Früher führten durchschnittlich zwei Bot-Scans zu einem Klick. Heute führen sechs Scans zu einem Klick.
Es ist erwähnenswert, dass viele KI-Bots heutzutage Inhalte ohne Erlaubnis, ohne Zahlung von Lizenzgebühren und ohne klare Quellenangabe sammeln. Dies ist wie „Bücher stehlen, ohne sie zu kaufen“, wodurch Inhaltsverleger alles verlieren.
Für Content-Ersteller ist das eine ernste Angelegenheit. Inhalte ohne Traffic bedeuten keine Werbeeinnahmen mehr, weniger treue Leser, Popularitätsverlust und minderwertige oder nicht mehr verfügbare Inhalte.
Datenkriege: Blockieren von KI-Bots, Vorschlag für kostenpflichtigen Zugriff
Im jüngsten Bericht heißt es, dass einige große Technologieunternehmen damit begonnen haben, viele Arten von KI-Bots automatisch zu blockieren, um Website-Inhalte zu schützen.
Dementsprechend müssen sich KI-Unternehmen registrieren, bestätigen oder den Zugriffsbedingungen zustimmen, bevor sie Daten von Websites scrapen.
Es gibt auch einen Vorschlag, einen „Pay Per Crawl“ -Mechanismus zu implementieren – das heißt, die KI muss jedes Mal zahlen, wenn der Bot Website-Inhalte crawlt. Damit soll sichergestellt werden, dass die Urheber die ihnen zustehenden Vorteile erhalten, anstatt „schmarotzend“ zu sein.
Darüber hinaus werden auch einige neue technologische Tools entwickelt, beispielsweise Möglichkeiten, KI-Bots abzulenken und sie dazu zu bringen, Inhalte zu fälschen, um die Wirksamkeit der illegalen Datensammlung zu verringern.
Insbesondere große Medienkonzerne wie The Atlantic, Fortune, Condé Nast oder The New York Times haben umfassende Maßnahmen zum Schutz ihrer Inhalte ergriffen. Einige verlangen von der KI die Unterzeichnung von Urheberrechtsvereinbarungen , während andere den Zugriff durch beliebte KI-Bots vollständig blockieren.
Die Zukunft des Webs: KI-Unterstützung oder „Zwang zum Leben“?
KI ist nicht der Feind. Doch KI, die nicht transparent ist und geistige Eigentumsrechte nicht respektiert, wird für alle Inhaltsanbieter zur Belastung.
Das eigentliche neue Problem besteht darin, einen Weg zu finden, die Vorteile zwischen den Parteien aufzuteilen. Werden die Nutzer künftig ihren Beitrag leisten, indem sie für den Zugang zu KI bezahlen? Oder werden KI-Unternehmen den Zugang freiwillig und ohne Erlaubnis verweigern?
Ein weiteres Szenario, das bereits erwähnt wurde, ist die Integration von KI in die Nachrichtenplattform selbst , um das Leseerlebnis zu verbessern. In diesem Fall fungiert die KI als Assistent, während die hochwertigen Inhalte weiterhin von echten Experten stammen.
Wie dem auch sei, Experten fordern, die Bemühungen der Content-Ersteller zu respektieren. Das Internet kann nicht florieren, wenn seine Grundlage – Inhalte – täglich ohne Entschädigung gestohlen wird.
Quelle: https://tuoitre.vn/ai-dang-an-cap-luot-truy-cap-vao-trang-web-chan-bot-ai-de-xuat-tra-phi-truy-cap-20250808104735148.htm
Kommentar (0)