Denne «bryllupsreise»-fasen går imidlertid mot slutten ettersom teknologigiganter begynner å gå fra en ren verktøyleverende modell til mer bærekraftige kommersielle plattformer.
Den harde realiteten er at driftskostnadene for datasentre med titusenvis av dyre prosesseringsbrikker løper opp i millioner av dollar daglig, noe som gjør investorer uvillige til å betale ubetinget for å tiltrekke seg brukere. Fremveksten av chatbot-svar som en ny "gullgruve" for reklame er et nødvendig skritt for å oppveie disse enorme regningene.
Enormt kostnadspress
Kostnaden per AI-svar er nå mange ganger høyere enn et tradisjonelt Google-søk. Sam Altman, administrerende direktør i OpenAI, innrømmet åpenhjertig i et intervju at: «Driftskostnadene til disse modellene er enorme; de er sjokkerende hver gang vi ser på fakturaene.»

For å håndtere den økonomiske utfordringen har OpenAI begynt å teste visning av annonser til en ikke-betalende brukerbase. Disse digitale annonsene vil kun vises på slutten av svarene og vil være tydelig merket for å skille dem fra chatbotens naturlige innhold. Fidji Simo, OpenAIs applikasjonsdirektør, bekreftet på sosiale medier at annonsene ikke vil forstyrre ChatGPTs svarinnhold.
Til tross for bedrifters forpliktelser til å beskytte brukeropplevelsen, fortsetter fremveksten av reklame å gi grunn til bekymring for tillit. Miranda Bogen, direktør for AI Governance Lab ved Center for Democracy and Technology, advarer om at brukere ser på chatboter som følgesvenner, og at det å utnytte denne tilliten til å fremme annonsørers interesser er et risikabelt foretagende.
Forrester-ekspert Paddy Harrington ga også innsiktsfulle observasjoner om disse tjenestenes natur, og uttalte: «Gratis tjenester er aldri helt gratis. Når en offentlig AI-plattform trenger å generere inntekter, kommer det kjente ordtaket til tankene: hvis du ikke betaler for tjenesten, er du mest sannsynlig produktet.»
Tjenestestratifisering og alternativer
I tillegg til å sette inn annonser, strammer AI-leverandører inn bruksgrensene og skaper et tydelig skille mellom tjenestenivåene. Fra mars 2026 vil gratis ChatGPT-brukere primært ha tilgang til GPT-5.3-modellen med en streng grense på 10 meldinger hver 5. time, mens premiumversjoner som GPT-5.4 Pro vil være fullstendig låst bak en betalt abonnementsmur.

På samme måte bruker Anthropics Claude-tjeneste et todelt begrensningssystem, som begrenser gratisbrukere til kun å sende omtrent 2 til 5 meldinger hver 5. time. Google er også med i dette løpet, og skiller tydelig sitt gratis Gemini-abonnement, som bruker 2.0 Flash-modellen, fra Advanced-abonnementet, som koster 19,99 dollar per måned for å få tilgang til den kraftigere 2.5 Pro-modellen og 2 TB lagringsplass.
Lei av kostnads- og personvernbekymringene har en del av brukerne vendt seg til alternativer. #QuitGPT- bevegelsen har begynt å spre seg innen teknologimiljøet, og oppfordrer brukere til å forlate betalte abonnementer i protest mot OpenAIs kommersialiseringsstrategi.
Professor David Rand fra Cornell University advarer om at: «Mange brukere vil bli mer skeptiske til å chatte med ChatGPT fordi de ikke ønsker at deres personlige informasjon skal brukes til målrettet annonsering. Hvis brukere er redde for å dele personlig kontekst, vil AI bli mindre nyttig, noe som gjør produktet verre.»
I denne sammenhengen er storskala språkmodeller som kjører lokalt på personlige datamaskiner via verktøy som Ollama eller LM Studio i ferd med å bli et attraktivt alternativ på grunn av deres absolutte datasikkerhet og uavhengighet fra internett.
Kilde: https://congluan.vn/ky-nguyen-ai-mien-phi-dan-khep-lai-10335312.html






Kommentar (0)