SGGP
Etter at Europa begynte å utarbeide og snart lanserte verdens første lov om kunstig intelligens (KI), har de fire ledende amerikanske gigantene innen datautvinning på internett nettopp lansert en gruppe kalt Frontier Model Forum.
Hovedmålet til Frontier Model Forum er å fremme AI på en ansvarlig måte. Foto: THINKWITHNICHE |
Partene kommer nærmere hverandre
Gruppen, som inkluderer Anthropic, Google, Microsoft og OpenAI, eieren av ChatGPT, sa at hovedmålene til Frontier Model Forum er å bidra til å redusere risikoen knyttet til AI-plattformer og utvikle bransjestandarder. Frontier Model Forum vil opprette et nytt forum med følgende hovedmål: Fremme AI-sikkerhetsforskning for å støtte utvikling, redusere risikoer og standardisere sikkerhetsvurderinger og -nivåer; identifisere beste praksis for modellutvikling og -distribusjon; hjelpe publikum med å forstå teknologiens natur, muligheter, begrensninger og virkninger; og samarbeide med beslutningstakere, akademikere, sivilsamfunnet og bedrifter for å dele kunnskap om risikoer og sikkerhet.
Teknologigiganter har tradisjonelt motstått økt regulering, men denne gangen har teknologibransjen generelt endret holdning til den økende bekymringen rundt risikoen AI utgjør. Selskapene som er involvert i Frontier Model Forum-initiativet har lovet å dele beste praksis på tvers av selskaper, og å gjøre informasjon offentlig tilgjengelig for myndigheter og sivilsamfunnet.
Frontier Model Forum vil spesifikt fokusere på storskala, men fortsatt i sin vorden, maskinlæringsplattformer som tar AI til nye nivåer av sofistikering – noe som også er en potensiell risikofaktor. I tillegg vil Frontier Model Forum også støtte utviklingen av applikasjoner som adresserer store samfunnsutfordringer som: begrensning av og tilpasning til klimaendringer, tidlig oppdagelse og forebygging av kreft, og bekjempelse av cybertrusler.
Rom for potensiell ødeleggelse
Kunngjøringen av Frontier Model Forum fra amerikanske selskaper kommer noen dager etter at amerikanske senatorer 25. juli advarte om risikoen for at AI blir brukt til biologiske angrep under en høring for en underkomité i det amerikanske senatet for justiskomité. Nylig har syv store teknologiselskaper, inkludert OpenAI, Alphabet og Meta, frivillig forpliktet seg overfor Det hvite hus til å utvikle et system for å identifisere alt innhold fra tekst, bilder, lyd til video laget av AI for å sikre åpenhet for brukerne, for å sikre at denne teknologien er tryggere.
Dario Amodei, administrerende direktør i AI Anthropic, bemerket at selv om AI ennå ikke er i stand til å lage biologiske våpen, er det en «mellomlangsiktig» risiko og utgjør en alvorlig trussel mot USAs nasjonale sikkerhet i løpet av de neste to eller tre årene. Årsaken er at de som utfører storskala angrep med biologiske våpen ikke lenger er begrenset til de med spesialisert kunnskap på dette området.
Verden står overfor en eksplosjon av innhold skapt av generativ AI-teknologi. Fra USA, Europa til Asia skjerpes kontrollene gradvis. Ifølge CNN vil det amerikanske senatet fra september avholde en serie på ni ekstra workshops for medlemmer for å lære om hvordan AI kan påvirke jobber, nasjonal sikkerhet og åndsverk. Før USA, hvis en avtale inngås, vil EU ha verdens første lov om AI-håndtering neste år, som forventes å tre i kraft fra 2026.
Fordelene som KI gir samfunnet er ubestridelige, men det er økende advarsler om de potensielle risikoene ved denne nye teknologien. I juni støttet FNs generalsekretær António Guterres et forslag fra flere KI-ledere om å opprette en internasjonal KI-vaktbikkje, lik Det internasjonale atomenergibyrået (IAEA).
Tilbake på Frontier Model Forum sa Microsofts president Brad Smith at initiativet er et viktig skritt i å bringe teknologiselskaper sammen for å fremme ansvarlig bruk av AI til fordel for hele menneskeheten. På samme måte sa OpenAIs visepresident for globale saker, Anna Makanju, at avansert AI-teknologi har potensial til å gi betydelige fordeler for samfunnet, og at dette krever tilsyn og styring.
[annonse_2]
Kilde
Kommentar (0)