Det taiwanske selskapet Foxconn kunngjorde i dag (10. mars) at de har utviklet sin første storskala språkmodell og planlegger å bruke teknologien til å forbedre produksjon og forsyningskjedestyring.
Modellen – kalt «FoxBrain» – ble trent med 120 av Nvidias H100 GPU-er og fullført på omtrent fire uker, hevder verdens største kontraktsprodusent av brikkesett.
Foxconn lanserer sin første store språkmodell, svært nær verdensledende standarder.
Selskapet, som setter sammen iPhones for Apple og også lager Nvidias kunstige intelligens-servere, sa at modellen er basert på Metas Llama 3.1-arkitektur.
Dette er Taiwans første store språkmodell med inferensmuligheter, optimalisert for tradisjonell kinesisk og taiwansk språkstil.
Foxconn sa at selv om det er et lite ytelsesforskjell sammenlignet med DeepSeeks destillerte modell fra Kina, er FoxBrains samlede ytelse svært nær verdensledende standarder.
FoxBrain, som opprinnelig ble utviklet for interne applikasjoner, inkluderer dataanalyse, beslutningsstøtte, dokumentsamarbeid, matematikk, resonnering og problemløsning, og generering av programmeringskode.
Foxconn planlegger å samarbeide med teknologipartnere for å utvide modellens applikasjoner, dele informasjon med åpen kildekode og utnytte kunstig intelligens i produksjon, forsyningskjedehåndtering og smart beslutningstaking.
Ifølge Foxconn ga Nvidia støtte gjennom superdatamaskinen «Taipei-1» som ligger i Taiwan, og ga teknisk rådgivning under modelltrening.
Taipei-1, den største superdatamaskinen i Taiwan, eies og drives av Nvidia i Kaohsiung, en by sør på øya.
Foxconn forventes å kunngjøre flere detaljer om modellen på Nvidias GTC-utviklerkonferanse i midten av mars.
(Kilde: Reuters)
[annonse_2]
Kilde: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm






Kommentar (0)