Internettdetektiver misbruker kunstig intelligens til å etterforske saker
FBI publiserte nylig to uskarpe bilder av en «person av interesse» i forbindelse med skytingen av den høyreorienterte aktivisten Charlie Kirk. Bildene ble delt på X-plattformen (tidligere Twitter).
Kort tid etter at bildet ble publisert, brukte mange internettbrukere AI-verktøy for å «oppgradere» det uskarpe bildet til et klart et. Noen brukte X sin Grok-bot, andre brukte ChatGPT eller andre AI-verktøy. AI kan imidlertid ikke gjenskape det virkelige bildet nøyaktig, men spekulerer bare basert på tilgjengelige data.

De AI-genererte bildene er så forskjellige fra originalen at FBI er forvirret. (Kilde: Thevegre)
Noen av bildene generert av AI har åpenbare feil, som forskjellige skjorter eller ansikter med urealistiske «Gigachad»-haker. Dette er ikke bare misvisende, men kan også påvirke etterforskningen.
Tidligere har AI depikselert bilder av president Barack Obama for å vise en hvit mann, eller lagt til falske detaljer på bilder av president Donald Trump. Disse eksemplene viser at AI kan skape feilinformasjon hvis den misbrukes.
Selv om de kan virke nyttige, bør ikke AI-forbedrede bilder anses som endelig bevis i en etterforskning. FBI anbefaler fortsatt å bruke originalbildene for å unngå skjevhet.
AI Darwin-prisene «hedrer» de verste AI-applikasjonene
En ny pris kalt «AI Darwin Awards» har nettopp blitt annonsert for å «hedre» dårlige, farlige eller tankeløse anvendelser av kunstig intelligens (KI). Målet er å skape offentlig bevissthet om hvordan mennesker bruker KI uforsiktig.
For å bli nominert må enkeltpersoner eller organisasjoner demonstrere «spektakulær svikt» i sin AI-utplassering, og ignorere åpenbare varseltegn. Poeng gis for tilfeller som forårsaker en nødrespons, skaper overskrifter eller skaper nye områder innen AI-sikkerhetsforskning.

AI-applikasjoner vil bli evaluert og til og med «anerkjent» av brukere hvis kvaliteten er dårlig. (Kilde: AP)
Et interessant poeng: Arrangørene bruker selve AI til å bekrefte nominasjonene. De ber store språkmodeller som ChatGPT, Claude og Gemini om å vurdere historiens autentisitet. Hvis gjennomsnittspoengsummen overstiger 5/10, anses nominasjonen som gyldig.
McDonald's er den første potensielle vinneren fordi rekrutterings-chatboten deres «Olivia» hadde standardpassordet 123456, noe som eksponerte dataene til 64 millioner mennesker. OpenAI er også nominert fordi GPT-5 kan komme med farlige forespørsler uten å innse at de er ondsinnede.
Vinneren vil bli annonsert i februar etter en offentlig avstemning i januar. Den eneste premien er «udødelig internettberømmelse» som et godt eksempel på hvordan man ikke skal bruke kunstig intelligens.
Alibaba lanserer ny generasjons AI-modell
12. september 2025 annonserte Alibaba offisielt og lanserte en ny kunstig intelligens-modell kalt Qwen3-Next, bygget på den moderne Qwen3-Next-arkitekturen. Denne modellen er 10 ganger kraftigere, men opplæringskostnaden er bare 1/10 av den forrige versjonen.
Ifølge Qwens utviklingsteam bruker den nye modellen mange arkitektoniske forbedringer for å optimalisere ytelsen og redusere beregningskostnader. Basert på Hugging Face-plattformen er Qwen3-Next-80B-A3B-versjonen med 80 milliarder parametere annonsert, og oppnår prosesseringshastighet 10 ganger raskere enn Qwen3-32B som ble utgitt i april.

Qwen – Alibabas nye AI-modell. (Kilde: SCMP)
Alibaba Cloud sa at den nye modellen kan distribueres effektivt på forbrukermaskinvare, samtidig som den oppnår ytelse som er sammenlignbar med high-end-modellen Qwen3-235B-A22B.
Åpen kildekode viser at Alibaba fortsetter å tette gapet med sine amerikanske konkurrenter ved å bygge verdens største åpne AI-økosystem, slik at tredjepartsutviklere kan bruke, modifisere og distribuere modellen fleksibelt.
Kilde: https://vtcnews.vn/cong-nghe-13-9-tham-tu-internet-lam-dung-ai-cong-bo-giai-thuong-ai-te-nhat-ar965176.html






Kommentar (0)