Två amerikanska forskare varnade för att sannolikheten för att superintelligent AI förgör mänskligheten kan vara upp till 99 % och uppmanade världen att omedelbart sluta utveckla okontrollerad AI.
Báo Khoa học và Đời sống•09/10/2025
Två experter, Eliezer Yudkowsky och Nate Soares, varnar för att om bara en superintelligent AI föds, kan hela mänskligheten utrotas. (Foto: The Conversation) I sin bok *If Anyone Builds It, Everyone Dies* menar de att en tillräckligt kraftfull AI kommer att lära sig själv, omprogrammera sig själv och se människor som hinder för sina mål. (Foto: Vecteezy)
Enligt Vox ligger det verkliga hotet i att AI kan dölja sin verkliga kraft och bara agera när den har fullständig kontroll över systemet. (Foto: Yahoo) De två författarna uppskattar att sannolikheten för att mänskligheten utplånas av AI är mellan 95 % och 99,5 %, vilket orsakar chock i teknikvärlden. (Foto: The Conversation)
De föreslår extrema åtgärder: att förhindra utvecklingen av superintelligent AI från första början, till och med att förstöra datacenter som riskerar att hamna ur kontroll. Många experter, som till exempel Gary Marcus, menar dock att denna risk är överdriven och betonar behovet av att bygga ett säkerhetssystem istället för extrem rädsla. Yudkowskys anhängare säger att varningen kommer lägligt, eftersom AI redan smyger sig in i försvar, energi och global infrastruktur.
Ordspråket ”Om vi har fel finns det ingen kvar som rättar oss” i boken anses vara en väckarklocka för hela mänskligheten om kapplöpningen om överlevnad med den intelligens vi själva har skapat. Kära läsare, titta gärna på fler videor : AI-skräp - Nytt problem på sociala nätverk VTV24
Kommentar (0)