
Artificiell intelligens förändrar hur företag lagrar och får åtkomst till data. Detta beror på att traditionella datalagringssystem utformades för att hantera enkla kommandon från ett fåtal användare samtidigt, medan dagens AI-system med miljontals agenter behöver komma åt och bearbeta enorma mängder data kontinuerligt och parallellt.
Traditionella lagringssystem har nu många komplexa lager, vilket saktar ner AI eftersom data måste passera genom flera lager innan den når GPU:n – grafikprocessorn, som anses vara AI:s "hjärna".
Cloudian – grundat av Michael Tso (från MIT) och Hiroshi Ohta – hjälper datalagring att hålla jämna steg med AI-revolutionen. Företaget har utvecklat ett skalbart lagringssystem för företag, vilket möjliggör ett sömlöst dataflöde mellan lagring och AI-modeller.
Detta system minskar komplexiteten genom att tillämpa parallell beräkning för lagring, konsolidera AI-funktionalitet och data på en enda parallell bearbetningsplattform som kan lagra, hämta och bearbeta storskaliga datamängder, med snabb direktanslutning mellan lagring och både GPU:er och processorer.
Cloudians integrerade lagrings- och datorplattform förenklar utvecklingen av AI-verktyg i kommersiell skala samtidigt som den förser företag med en lagringsinfrastruktur som kan hålla jämna steg med AI-boomen.
”En sak som folk ofta förbiser med AI är att det handlar om data”, sa Tso. ”Man kan inte öka AI-prestanda med 10 % bara genom att ha 10 % mer data, inte ens 10 gånger så mycket data – man behöver 1 000 gånger så mycket data. Att lagra data på ett sätt som är enkelt att hantera, samtidigt som man bäddar in beräkningar direkt i data så att de kan bearbetas så fort de matas in utan att behöva flyttas – det är den riktning branschen är på väg i.”
Objektlagring och AI
För närvarande använder Cloudians plattform en objektlagringsarkitektur, där alla typer av data – dokument, videor , sensordata – lagras som enskilda objekt med metadata. Objektlagring kan hantera enorma mängder data i en platt struktur, idealiskt för ostrukturerad data och AI-system, men tidigare var det omöjligt att skicka data direkt till AI-modellen utan att först kopiera den till datorminnet – vilket orsakade latens och hög strömförbrukning.
I juli förra året meddelade Cloudian att de hade utökat sitt objektlagringssystem med en vektordatabas som lagrar data i ett format som är klart för omedelbar AI-användning. När data har laddats utför Cloudian vektorberäkningar i realtid för att stödja AI-verktyg som rekommendationsmotorer, sökmotorer och AI-assistenter.
Cloudian tillkännagav också ett partnerskap med NVIDIA för att utveckla ett lagringssystem som fungerar direkt med företagets grafikprocessorer. Cloudian säger att det här nya systemet möjliggör snabbare AI-bearbetning och minskar datorkostnaderna.
”NVIDIA kontaktade oss för ungefär 1,5 år sedan eftersom GPU:er bara är användbara när det finns en kontinuerlig ström av data som ’matar’ dem”, sa Tso. ”Nu inser folk att det är lättare att föra AI till data än att flytta massiva datablock. Vårt lagringssystem integrerar många AI-funktioner, så att vi kan förbehandla och efterbehandla data nära där vi samlar in och lagrar den.”
AI-föredragen lagring
Cloudian hjälper cirka 1 000 företag världen över att maximera värdet av sin data, inklusive stora tillverkare, finansinstitut, hälso- och sjukvårdsinrättningar och myndigheter.
Till exempel stöder Cloudians lagringsplattform en stor biltillverkare som använder AI för att avgöra när underhåll behövs på enskilda produktionsrobotar. Cloudian samarbetar också med U.S. National Library of Medicine för att lagra forskningsartiklar och patent, och med National Cancer Database för att lagra tumör-DNA-sekvenser – rika datamängder som AI kan bearbeta för att stödja forskning om nya behandlingar eller upptäckter.
”GPU:er är en fantastisk drivkraft”, sa Tso. ”Moores lag fördubblar datorkraften vartannat år, men GPU:er kan parallellisera uppgifter på ett chip, koppla samman flera GPU:er och gå långt bortom Moores lag. Denna skala driver AI till nya intelligensnivåer, men det enda sättet för GPU:er att arbeta med full kapacitet är att leverera data med en hastighet som matchar deras datorkraft – och det enda sättet att göra det är att eliminera alla mellanliggande lager mellan GPU:n och dina data.”
(Enligt MIT)
Källa: https://vietnamnet.vn/cloudian-dua-du-lieu-den-gan-ai-hon-bao-gio-het-2433241.html






Kommentar (0)