Het Taiwanese bedrijf Foxconn heeft vandaag (10 maart) bekendgemaakt dat het zijn eerste grootschalige taalmodel heeft ontwikkeld en van plan is de technologie te gebruiken om het beheer van de productie en toeleveringsketen te verbeteren.
Het model – genaamd “FoxBrain” – werd getraind met behulp van 120 H100 GPU’s van Nvidia en was in ongeveer vier weken voltooid, beweert de grootste contractchipmaker ter wereld .
Foxconn lanceert eerste grote taalmodel, dat heel dicht bij toonaangevende standaarden in de wereld ligt.
Het bedrijf, dat iPhones voor Apple assembleert en ook Nvidia's kunstmatige-intelligentieservers maakt, zei dat het model gebaseerd is op de Llama 3.1-architectuur van Meta.
Dit is Taiwans eerste grote taalmodel met inferentiemogelijkheden, geoptimaliseerd voor traditioneel Chinees en Taiwanese taalstijlen.
Volgens Foxconn is er weliswaar een klein prestatieverschil met het Chinese model van DeepSeek, maar de algehele prestaties van FoxBrain liggen heel dicht bij de toonaangevende normen ter wereld.
FoxBrain is oorspronkelijk ontworpen voor interne toepassingen en biedt functies voor gegevensanalyse, beslissingsondersteuning, samenwerking aan documenten, wiskunde, redeneren en probleemoplossing, en het genereren van programmeercode.
Foxconn wil samenwerken met technologiepartners om de toepassingsmogelijkheden van het model uit te breiden, open-source-informatie te delen en kunstmatige intelligentie te benutten voor productie, beheer van de toeleveringsketen en slimme besluitvorming.
Volgens Foxconn bood Nvidia ondersteuning via de supercomputer "Taipei-1" in Taiwan en gaf het technisch advies tijdens de modeltraining.
Taipei-1, de grootste supercomputer van Taiwan, is eigendom van en wordt beheerd door Nvidia in Kaohsiung, een stad in het zuiden van het eiland.
Foxconn zal naar verwachting medio maart tijdens de GTC-ontwikkelaarsconferentie van Nvidia meer details over het model bekendmaken.
(Bron: Reuters)
Bron: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm






Reactie (0)