
KI "stiehlt" den Traffic von Websites
Obwohl KI immer besser wird und Anfragen schnell und präzise beantwortet, klicken Nutzer immer seltener auf die ursprüngliche Webseite. Dies führt dazu, dass viele Content-Anbieter und Online-Zeitungen erhebliche Besuchereinbußen erleiden.
Einige der weltweit größten Internetinfrastrukturunternehmen warnen davor, dass dieser Trend Teile des Internets der Gefahr aussetzen könnte, abgewürgt zu werden.
Die KI antwortet schnell, „vergisst“ aber die Originalseite.
Früher lieferten Google und andere Suchmaschinen bei der Informationssuche eine Liste von Webseiten zum Anklicken. Dank KI-Tools wie ChatGPT, Google AI Overview oder Perplexity werden die Informationen jedoch zusammengefasst und den Nutzern direkt angezeigt, sodass sie die ursprüngliche Quelle nicht mehr besuchen müssen.
Laut Experten für Netzwerkinfrastruktur sinkt die Besuchsrate nach dem Scannen von Inhalten durch KI-Bots deutlich. Vor einiger Zeit führten durchschnittlich zwei Bot-Scans zu einem Klick. Heute sind es sechs Scans.
Es ist erwähnenswert, dass viele KI-Bots heutzutage Inhalte ohne Genehmigung, ohne Lizenzgebühren und ohne klare Quellenangabe sammeln. Das ist vergleichbar mit dem „Stehlen von Büchern, ohne sie zu kaufen“, wodurch die Rechteinhaber alles verlieren.
Für Content-Ersteller ist das eine ernste Angelegenheit. Inhalte ohne Traffic bedeuten keine Werbeeinnahmen mehr, weniger treue Leser, Popularitätsverlust und qualitativ minderwertige oder gar eingestellte Inhalte.
Datenkriege: KI-Bots blockieren, kostenpflichtigen Zugang vorschlagen
Im neuesten Bericht heißt es, dass einige große Technologieunternehmen damit begonnen haben, viele Arten von KI-Bots automatisch zu blockieren, um Website-Inhalte zu schützen.
Demzufolge müssen KI-Unternehmen sich registrieren, ihre Nutzungsbedingungen bestätigen oder ihnen zustimmen, bevor sie Daten von Websites extrahieren dürfen.
Es gibt außerdem einen Vorschlag zur Einführung eines „Pay-per-Crawl“ -Mechanismus. Das bedeutet, dass die KI jedes Mal zahlen muss, wenn der Bot Webseiteninhalte durchsucht. Dadurch soll sichergestellt werden, dass die Urheber die ihnen zustehenden Vorteile erhalten und nicht unverdient profitieren.
Es werden auch neue technologische Hilfsmittel entwickelt, wie zum Beispiel Methoden, um KI-Bots abzulenken und sie dazu zu bringen, gefälschte Inhalte zu erstellen, um die Effektivität illegaler Datensammlungen zu verringern.
Bemerkenswerterweise haben große Medienkonzerne wie The Atlantic, Fortune, Condé Nast oder die New York Times entschiedene Maßnahmen zum Schutz von Inhalten ergriffen. Einige verlangen von KI-Systemen die Unterzeichnung von Urheberrechtsvereinbarungen , während andere den Zugriff gängiger KI-Bots vollständig blockieren.
Die Zukunft des Internets: KI-Unterstützung oder „Zwang zum Überleben“?
Künstliche Intelligenz ist nicht der Feind. Doch eine KI, die nicht transparent ist und geistige Eigentumsrechte nicht respektiert, wird für alle Inhaltsanbieter zur Belastung.
Die eigentliche neue Herausforderung besteht darin, einen Weg zu finden, die Vorteile zwischen den Parteien aufzuteilen. Werden Nutzer künftig durch Bezahlung für den Zugang zu KI beitragen? Oder werden KI-Unternehmen den Zugang freiwillig und ohne Zustimmung einschränken?
Ein weiteres erwähntes Szenario ist die Integration von KI in die Nachrichtenplattform selbst , um das Leseerlebnis zu verbessern. In diesem Fall fungiert die KI als Assistent, während die qualitativ hochwertigen Inhalte weiterhin von Experten stammen.
Unabhängig vom Szenario betonen Experten, dass die Arbeit von Content-Erstellern respektiert werden muss. Das Internet kann nicht gedeihen, wenn seine Grundlage, die Inhalte, täglich ohne Entschädigung gestohlen wird.
Quelle: https://tuoitre.vn/ai-dang-an-cap-luot-truy-cap-vao-trang-web-chan-bot-ai-de-xuat-tra-phi-truy-cap-20250808104735148.htm






Kommentar (0)