
Bygg dedikert AI-infrastruktur rett i datasenteret.
Etter hvert som myndigheter og store organisasjoner søker å utvide prosjekter innen kunstig intelligens (KI), har mange begynt å bevege seg mot konseptet «KI-fabrikker» for å møte spesifikke behov angående datasuverenitet og samsvar med regelverk.
Å bygge en høytytende AI-fabrikk krever imidlertid et omfattende system som omfatter administrasjonsprosesser, databaser, lagring og sikkerhet, med en kompleksitet som få kunder er villige til å bære selv.
Organisasjoner i sterkt regulerte sektorer og offentlig sektor står overfor betydelige utfordringer med AI-infrastruktur når de distribuerer store prosjekter. Å bygge sine egne AI-funksjoner krever massive investeringer i GPU-er, datasentre og energi, samt å navigere i komplekse anskaffelsesprosesser, velge riktig modell for hvert brukstilfelle og lisensiere flere AI-leverandører.
Alle disse faktorene fører til at implementeringsprosessen drar ut i mange år, øker driftskompleksiteten og distraherer organisasjoner fra sine kjernevirksomhetsmål.
For å møte denne utfordringen lanserte AWS AWS AI Factories den 11. desember, en ny tjeneste som gir bedrifter og myndigheter en dedikert AI-infrastruktur, rett i kundens datasenter, som drives eksklusivt for dem.
AWS AI Factories integrerer avanserte AI-akselerasjonsverktøy, fra banebrytende NVIDIA AI-databehandlingsteknologi til Trainium-brikker, kombinert med nettverksfunksjoner med høy hastighet og lav latens, høyytelseslagring og databaser, omfattende sikkerhet, energieffektiv infrastruktur og kraftige AWS AI-tjenester som Amazon Bedrock og SageMaker AI.
Som et resultat kan kunder raskt utvikle og distribuere AI-applikasjoner i stor skala, optimalisere ytelsen og møte spesifikke forretningsbehov.
AWS AI-fabrikker opererer som separate AWS-regioner, og gir sikker tilgang til databehandling, lagring, databaser og AI-tjenester med lav latens. Denne tilnærmingen utnytter tilgjengelig datasenterplass og -kraft samtidig som den åpner tilgang til hele AWS AI-infrastrukturen og -tjenestene, fra banebrytende AI-brikker for trening og inferens til verktøy for bygging, trening og distribusjon av AI-modeller.
Videre gir administrerte tjenester tilgang til ledende fundamentmodeller uten behov for separate kontrakter med individuelle leverandører, samtidig som de hjelper kundene med å fullt ut oppfylle krav til sikkerhet, datasuverenitet og samsvar med regelverk angående hvor data behandles og lagres.
Med nesten to tiår med lederskap innen skytjenester og overlegen erfaring med å designe storskala AI-systemer, kan AWS distribuere sikker og pålitelig AI-infrastruktur mye raskere enn de fleste organisasjoner kan bygge den selv, noe som sparer mange års arbeid og reduserer driftskompleksiteten betydelig.
Det 15 år lange partnerskapet mellom AWS og NVIDIA
Forholdet mellom AWS og NVIDIA startet for 15 år siden, da AWS lanserte verdens første GPU-sky. Siden den gang har AWS gitt kundene den mest varierte porteføljen av GPU-løsninger.
AWS og NVIDIA bygger på et langvarig partnerskap for å levere avansert AI-infrastruktur, og hjelper kunder med å bygge og kjøre storskala språkmodeller raskere, mer effektivt og sikrere enn noe annet sted, rett i sine egne datasentre.
Med integreringen mellom NVIDIA og AWS AI Factories får AWS-kunder sømløs tilgang til NVIDIAs akselererte databehandlingsplattform, en omfattende AI-programvarepakke og tusenvis av GPU-akselererte applikasjoner, noe som gir overlegen ytelse, høy effektivitet og fleksibel skalerbarhet for utvikling av neste generasjons AI-løsninger.
De to sidene fortsetter å kombinere banebrytende teknologier: AWS Nitro System, petabit-skala Elastic Fabric Adapter (EFA)-nettverk og Amazon EC2 UltraClusters som støtter de nyeste NVIDIA Grace Blackwell- og neste generasjons NVIDIA Vera Rubin-plattformene.
I fremtiden vil AWS legge til støtte for NVIDIA NVLink Fusion høyhastighetsbrikketilkoblingsteknologi til neste generasjons Trainium4- og Graviton-brikker, samt i Nitro Systems. Denne integrasjonen hjelper kundene med å forkorte tiden til markedet samtidig som de oppnår overlegen ytelse.
Ian Buck, visepresident og daglig leder for hyperskala og HPC-databehandling hos NVIDIA, delte: «Storskala AI krever en helhetlig tilnærming fra avanserte GPU-er og nettverksinfrastruktur til programvare og tjenester som optimaliserer hvert lag i datasenteret. Sammen med AWS bringer vi alle disse elementene direkte inn i kundenes miljøer.»
«Ved å kombinere NVIDIAs nyeste Grace Blackwell- og Vera Rubin-arkitekturer med AWS’ sikre, høytytende infrastruktur og omfattende AI-programvarepakke, hjelper AWS AI Factories organisasjoner med å distribuere kraftige AI-funksjoner på en brøkdel av tiden, samtidig som de fokuserer utelukkende på innovasjon i stedet for å bekymre seg for integrasjon», sa Ian Buck.
Støtte offentlig sektor for å akselerere adopsjonen av AI.
AWS AI-fabrikker er utformet for å oppfylle AWS' strengeste sikkerhetsstandarder, noe som gir offentlige kunder den største tryggheten når de kjører sensitive arbeidsbelastninger på alle klassifiseringsnivåer: Uklassifisert, Sensitiv, Klassifisert og Topphemmelig.
Samtidig gir AWS AI Factories myndigheter over hele verden beredskapen, påliteligheten, sikkerheten og kontrollen som trengs for å drive økonomisk vekst og maksimere fordelene med AI-teknologi.
AWS og NVIDIA inngår strategisk samarbeid med HUMAIN, et globalt selskap basert i Saudi-Arabia som spesialiserer seg på å utvikle omfattende AI-funksjoner.
Som en del av dette samarbeidet skal AWS bygge den første banebrytende «AI-sonen» i Saudi-Arabia, med en skala på opptil 150 000 AI-brikker, inkludert GB300 GPU-er, AWS sin dedikerte AI-infrastruktur og AWS AI-tjenester, alt distribuert i et spesialdesignet datasenter av HUMAIN.
Tareq Amin, administrerende direktør i HUMAIN, delte: «AI-fabrikken som AWS bygger i vår nye AI-sone markerer starten på en reise på flere gigawatt for HUMAIN og AWS. Helt fra starten av har denne infrastrukturen blitt designet for å betjene både de akselererende behovene for AI-databehandling lokalt og globalt.»
«Gjennom vår felles forpliktelse til å utvide globale markeder, skaper vi et økosystem som vil forme fremtiden for hvordan AI-ideer bygges, distribueres og skaleres over hele verden», la Tareq Amin til.
Kilde: https://nhandan.vn/nha-may-tri-tue-nhan-tao-aws-nang-cao-hieu-nang-ha-tang-ai-trong-trung-tam-du-lieu-post929637.html






Kommentar (0)