
Kunstmatige intelligentie (AI) verandert de manier waarop bedrijven data opslaan en gebruiken. Dit komt doordat traditionele dataopslagsystemen zijn ontworpen om eenvoudige opdrachten van een paar gebruikers tegelijk te verwerken, terwijl de huidige AI-systemen met miljoenen agents continu en parallel enorme hoeveelheden data moeten benaderen en verwerken.
Traditionele opslagsystemen bestaan tegenwoordig uit veel lagen van complexiteit, waardoor AI trager wordt. Gegevens moeten namelijk door veel lagen heen voordat ze de GPU bereiken. Deze GPU is de grafische verwerkingseenheid, ook wel de 'hersencel' van AI genoemd.
Cloudian – mede opgericht door Michael Tso (MIT) en Hiroshi Ohta – helpt dataopslag gelijke tred te houden met de AI-revolutie. Het bedrijf heeft een schaalbaar enterprise storagesysteem ontwikkeld dat zorgt voor een soepele gegevensuitwisseling tussen storage- en AI-modellen.
Het systeem vermindert de complexiteit door parallel computing toe te passen op de opslag, waarbij AI en datafunctionaliteit worden geconsolideerd op één parallel verwerkingsplatform dat grootschalige datasets kan opslaan, ophalen en verwerken, met snelle directe connectiviteit tussen de opslag en zowel GPU's als CPU's.
Het geïntegreerde compute-storageplatform van Cloudian vereenvoudigt het bouwen van AI-tools op commerciële schaal en biedt bedrijven een opslaginfrastructuur die de AI-explosie kan bijhouden.
"Wat mensen vaak vergeten over AI, is dat het allemaal om data draait", zegt Tso. "Je kunt geen 10% hogere AI-prestaties behalen met 10% meer data, en zelfs 10 keer meer data is niet genoeg – je hebt 1000 keer meer data nodig. Data opslaan op een manier die eenvoudig te beheren is en berekeningen direct inbouwen, zodat je ze kunt gebruiken zodra ze binnenkomen, zonder ze te hoeven verplaatsen – dat is waar de industrie naartoe gaat."
Objectopslag en AI
Momenteel maakt het platform van Cloudian gebruik van een object storage-architectuur, waarbij alle soorten data – documenten, video's , sensordata – worden opgeslagen als afzonderlijke objecten met metadata. Object storage kan enorme hoeveelheden data beheren in een platte structuur, waardoor het ideaal is voor ongestructureerde data en AI-systemen. Voorheen was het echter onmogelijk om data rechtstreeks naar een AI-model te sturen zonder deze eerst naar het geheugen van de computer te kopiëren – wat vertraging en energieverspilling veroorzaakte.
In juli kondigde Cloudian aan dat het zijn objectopslagsysteem had uitgebreid met een vectordatabase, die data opslaat in een vorm die direct beschikbaar is voor AI-gebruik. Wanneer de data wordt verwerkt, berekent Cloudian de vectorvorm van de data in realtime ter ondersteuning van AI-tools zoals aanbevelingssystemen, zoeksystemen en AI-assistenten.
Cloudian kondigde ook een samenwerking aan met NVIDIA om zijn opslagsysteem direct met zijn GPU's te laten werken. Volgens Cloudian maakt het nieuwe systeem snellere AI-verwerking en lagere computerkosten mogelijk.
"NVIDIA benaderde ons ongeveer anderhalf jaar geleden, omdat GPU's alleen nuttig zijn als er data beschikbaar is om ze te voeden", aldus Tso. "Nu beseffen mensen dat het makkelijker is om AI toe te passen op de data dan om enorme hoeveelheden data te verplaatsen. Ons opslagsysteem beschikt over veel ingebouwde AI-mogelijkheden, waardoor we de data dicht bij de plek waar we ze verzamelen en opslaan, kunnen voor- en nabewerken."
AI-prioriteitsopslag
Cloudian helpt wereldwijd ongeveer 1.000 bedrijven, waaronder grote fabrikanten, financiële instellingen, zorginstellingen en overheidsinstanties, om hun data optimaal te benutten.
Zo helpt het opslagplatform van Cloudian een grote autofabrikant om AI te gebruiken om te bepalen wanneer elk van zijn productierobots onderhoud nodig heeft. Cloudian werkt ook samen met de Amerikaanse National Library of Medicine om onderzoeksartikelen en patenten op te slaan, en met de National Cancer Database om tumor-DNA-sequenties op te slaan – rijke datasets die AI kan verwerken ter ondersteuning van de ontwikkeling van nieuwe behandelingen of ontdekkingen.
"GPU's zijn een geweldige facilitator", zegt Tso. "De Wet van Moore verdubbelt de rekenkracht elke twee jaar, maar GPU's kunnen taken op een chip paralleliseren, meerdere GPU's aan elkaar koppelen en verder gaan dan de Wet van Moore. Deze schaal tilt AI naar nieuwe niveaus van intelligentie, maar de enige manier om GPU's hun best te laten doen, is door data te verwerken met dezelfde snelheid als hun rekenkracht – en de enige manier om dat te doen, is door alle tussenliggende lagen tussen de GPU en je data te verwijderen."
(Volgens MIT)
Bron: https://vietnamnet.vn/cloudian-dua-du-lieu-den-gan-ai-hon-bao-gio-het-2433241.html
Reactie (0)