
Sztuczna inteligencja „kradnie” ruch ze stron internetowych.
Podczas gdy sztuczna inteligencja staje się coraz bardziej zaawansowana, szybko i precyzyjnie reagując na potrzeby użytkowników, coraz mniej użytkowników klika na strony źródłowe. To powoduje, że wielu dostawców treści i serwisów informacyjnych ponosi duże straty z powodu utraty ruchu.
Kilka największych firm zajmujących się infrastrukturą internetową na świecie ostrzega, że tendencja ta może narazić część Internetu na ryzyko zaniku.
Sztuczna inteligencja zareagowała szybko, ale „zapomniała” o oryginalnej stronie.
Wcześniej, gdy szukałeś informacji w Google lub innych wyszukiwarkach, wyniki zawierały listę stron internetowych, na które użytkownicy mogli kliknąć. Jednak dzięki narzędziom AI, takim jak ChatGPT, Google AI Overview czy Perplexity, informacje są podsumowywane i prezentowane użytkownikowi, eliminując potrzebę sięgania do oryginalnego źródła.
Według ekspertów ds. infrastruktury sieciowej, współczynnik klikalności po skanowaniu treści przez boty AI drastycznie spada. Jeszcze niedawno średnio dwa skanowania botów skutkowały jednym kliknięciem. Teraz potrzeba sześciu skanów na jedno kliknięcie.
Warto zauważyć, że wiele botów AI gromadzi obecnie treści bez pozwolenia, bez płacenia tantiem i bez prawidłowego podania źródła . To jak „czytanie książki bez jej kupowania”, przez co wydawcy treści tracą wszystko.
Dla twórców treści to bardzo poważna sprawa. Treści bez wyświetleń oznaczają brak przychodów z reklam, spadek liczby lojalnych czytelników, utratę popularności i mogą prowadzić do niskiej jakości treści, a nawet całkowitego zaprzestania aktualizacji.
Wojna o dane: blokowanie botów AI, proponowanie płatnego dostępu.
Według ostatnich doniesień, kilka dużych firm technologicznych zaczęło automatycznie blokować różne typy botów opartych na sztucznej inteligencji, aby chronić zawartość stron internetowych.
W związku z tym firmy zajmujące się sztuczną inteligencją muszą zarejestrować się, zweryfikować lub zaakceptować warunki dostępu, zanim zaczną skanować dane ze stron internetowych.
Jednocześnie proponuje się wdrożenie mechanizmu „Pay Per Crawl” – co oznacza, że sztuczna inteligencja płaciłaby za każdym razem, gdy bot skanuje zawartość witryny. Ma to na celu zapewnienie twórcom godziwego wynagrodzenia, zamiast bycia wykorzystywanymi za darmo.
Opracowano także szereg nowych narzędzi technologicznych, takich jak metody odwracania uwagi botów AI, nakłaniające je do tworzenia fałszywych treści, co ma na celu ograniczenie skuteczności nielegalnego gromadzenia danych.
Warto zauważyć, że duże korporacje medialne, takie jak The Atlantic, Fortune, Condé Nast i The New York Times, podjęły zdecydowane kroki w celu ochrony swoich treści. Niektóre wymagają od botów AI podpisywania umów o prawach autorskich , podczas gdy inne całkowicie blokują dostęp popularnym botom AI.
Przyszłość sieci: pomoc sztucznej inteligencji czy wymuszone przetrwanie?
Sztuczna inteligencja nie jest wrogiem. Ale sztuczna inteligencja, która nie jest transparentna i nie szanuje praw własności intelektualnej, stanie się obciążeniem dla wszystkich dostawców treści.
Znalezienie sposobu na dzielenie się korzyściami między wszystkimi stronami to naprawdę nowe wyzwanie. Czy użytkownicy będą w przyszłości płacić za dostęp do sztucznej inteligencji? Czy też firmy zajmujące się sztuczną inteligencją dobrowolnie zaprzestaną dostępu bez pozwolenia?
Innym wspomnianym scenariuszem jest integracja sztucznej inteligencji z samą platformą informacyjną , co poprawi wrażenia czytelnika. W tym przypadku sztuczna inteligencja działa jako asystent, a wysokiej jakości treści nadal pochodzą od prawdziwych ekspertów.
Niezależnie od scenariusza, eksperci zgadzają się, że wysiłki twórców treści należy szanować. Internet nie może się rozwijać, jeśli jego fundament – treści – jest codziennie kradziony bez rekompensaty.
Source: https://tuoitre.vn/ai-dang-an-cap-luot-truy-cap-vao-trang-web-chan-bot-ai-de-xuat-tra-phi-truy-cap-20250808104735148.htm






Komentarz (0)