AI brukes til spådom i Kina. Illustrasjon: Laget av AI. |
Ifølge China Association of Science and Technology har DeepSeeks applikasjon blitt stadig mer kjent i landet med en milliard innbyggere, etter å ha blitt kjent siden begynnelsen av dette året. Det viktigste verktøyet når brukere søker er imidlertid den nevnte AI-spådomsløsningen. Ikke bare en spøk, antallet personer som bruker og diskuterer denne applikasjonen er enormt.
DeepSeek har også en spesiell forkjærlighet for feng shui-armbånd, og anbefaler dem ofte til kunder som «skjebneforandrende verktøy». Dette førte til en mani tidligere i år. Eksperter råder imidlertid brukere til ikke å være overtroiske eller tro på spådom basert på kunstig intelligens.
![]() |
Innlegg som annonserer hvordan man bruker DeepSeek til spådom. Foto: QQ. |
Når en bruker oppgir fødselsdatoen sin, begynner DeepSeek å beregne brukerens «åtte tegn» basert på fødselsdato og -klokkeslett. Informasjonen virker rimelig i starten. Men når resultatene er over, anbefaler den at kundene kjøper feng shui-armbånd. Dette ligner på hvordan tjenesteleverandører i virkeligheten gjør det.
Mange kinesere stoler mer på DeepSeek fordi det ble trent på en stor mengde data fra et land med én milliard innbyggere. Svarene fra denne chatboten ser ut til å være forståelige og passe kunder i dette landet.
Før DeepSeek fantes det allerede ChatGPT-baserte verktøy for horoskopprediksjon i Kina. Men all programvare lider av et grunnleggende paradoks. Store språkmodeller (LLM-er) er bare statistiske sannsynlighetsbaserte prediksjoner, og kan ikke betraktes som «sannheter» som skal følges.
![]() |
Grensesnitt for AI-horoskopverktøy i Kina, som kjører på DeepSeek R1 API. |
Det er tydelig at AI ikke er troverdig. Når DeepSeek får det samme problemet til å løse det flere ganger, blir resultatene noen ganger forskjellige. Dette er problemet med kunstig intelligens-illusjoner, noe som fører til fabrikasjon.
På den annen side virker DeepSeek også troverdig på grunn av vage svar som «Du kan ha uflaks på jobben, men å gjøre det bra vil føre til forfremmelser og viktige oppgaver.» Dette er en form for Barnum-effekten. Den beskriver den kognitive feilen når folk tror at en generell beskrivelse nøyaktig avslører deres personlige egenskaper.
LLM-er er utformet for å være dyktige i denne oppførselen. De må gi svar som virker personlige, men som kan brukes på alle brukere.
Det bekymringsfulle er at AI har en tendens til å være mer imøtekommende enn ekte «spåkoner». Mange chatboter er designet for å imøtekomme alle brukeres behov. Som et resultat kan de komme med uansvarlige eller fullstendig fiktive spådommer.
«Det er ikke galt å bruke spådomskunst med kunstig intelligens til daglig underholdning. Men ikke ta spådommene som vitenskapelig basert. Du kan ta feil avgjørelser, som å kjøpe feng shui-armbånd eller endre livsplanene dine basert på kunstig intelligens», advarte China Association for Science and Technology.
Teknisk sett er også alt AI-innhold basert på gjetningen med høyest sannsynlighet, som ikke er synonymt med sannhet.
Kilde: https://znews.vn/dung-deepseek-xem-boi-post1540583.html








Kommentar (0)