En gruppe fremtredende internasjonale eksperter møttes i Beijing forrige uke, hvor de identifiserte «røde linjer» i AI-utvikling, inkludert utvikling av biologiske våpen og gjennomføring av cyberangrep.
I en uttalelse dager etter møtet advarte akademikerne om at en felles tilnærming til AI-sikkerhet er nødvendig for å forhindre «katastrofale eller til og med eksistensielle risikoer for menneskeheten i vår levetid».
«På høydepunktet av den kalde krigen bidro internasjonalt samarbeid mellom myndigheter og vitenskapelig myndigheter til å forhindre atomkatastrofe. Menneskeheten må nok en gang samarbeide for å forhindre katastrofen som kan oppstå fra enestående teknologi», heter det i uttalelsen.
Eksperter ved den internasjonale dialogen om AI-sikkerhet i Beijing har identifisert «røde linjer» i AI-utvikling. Foto: FT
Blant underskriverne finner vi Geoffrey Hinton og Yoshua Bengio, som ofte beskrives som «fedrene» til kunstig intelligens; Stuart Russell, professor i informatikk ved University of California; og Andrew Yao, en av Kinas mest fremtredende informatikere.
Uttalelsen kommer etter den internasjonale dialogen om KI-sikkerhet i Beijing forrige uke, et møte der kinesiske myndighetspersoner deltok for å uttrykke sin godkjenning av forumet og dets resultater.
USAs president Joe Biden og Kinas president Xi Jinping møttes i november i fjor og diskuterte AI-sikkerhet, og ble enige om å etablere en dialog om saken. Ledende globale AI-selskaper har også møtt private møter med kinesiske AI-eksperter de siste månedene.
I november 2023 ble 28 land, inkludert Kina, og ledende AI-selskaper enige om en bred forpliktelse til å samarbeide for å håndtere eksistensielle risikoer som følge av avansert AI under Storbritannias finansminister Rishi Sunaks AI-sikkerhetstoppmøte.
I Beijing forrige uke diskuterte eksperter trusler knyttet til utviklingen av «kunstig generell intelligens – AGI», eller AI-systemer som er likeverdige med eller bedre enn mennesker.
«Kjernefokuset i diskusjonen var de røde linjene som ingen kraftige AI-systemer bør krysse, og som myndigheter over hele verden bør innføre i utviklingen og utrullingen av AI», sa Bengio.
Disse røde linjene ville sikre at «ingen AI-system kan kopiere eller forbedre seg selv uten eksplisitt menneskelig samtykke og støtte» eller «iverksette tiltak som urimelig øker dets makt og innflytelse».
Forskerne la til at intet system ville «betydelig forbedre aktørers evne til å designe masseødeleggelsesvåpen, bryte konvensjonen om biologiske eller kjemiske våpen» eller være i stand til å «automatisk utføre cyberangrep som resulterer i alvorlig økonomisk tap eller tilsvarende skade».
Hoang Hai (ifølge FT)
[annonse_2]
Kilde






Kommentar (0)