I dag (10. mars) kunngjorde Foxconn, et taiwansk selskap, at de har utviklet det første storskala språkmodelleringssystemet og planlegger å bruke denne teknologien til å forbedre produksjon og forsyningskjedestyring.
Ifølge en uttalelse fra verdens største kontraktsprodusent av brikkesett ble denne modellen – kalt «FoxBrain» – trent med 120 Nvidia H100 GPU-er og fullført på omtrent fire uker.
Foxconn lanserer sin første storskala språkmodell, svært nær verdensledende standarder.
Selskapet, som monterer iPhones for Apple og også produserer Nvidias kunstige intelligens-servere, sa at modellen er basert på Metas Llama 3.1-arkitektur.
Dette er Taiwans første storskala slutningsspråkmodell, optimalisert for tradisjonelle kinesiske og taiwanske språklige stiler.
Foxconn uttalte at selv om det er et lite ytelsesgap sammenlignet med DeepSeeks destillasjonsmodell fra Kina, er FoxBrains samlede ytelse svært nær verdensledende standarder.
FoxBrain, som opprinnelig ble utviklet for interne applikasjoner, omfatter dataanalyse, beslutningsstøtte, dokumentsamarbeid, matematikk, resonnering og problemløsning, samt kodegenerering.
Foxconn planlegger å samarbeide med teknologipartnere for å utvide bruken av modellen, dele informasjon med åpen kildekode og fremme kunstig intelligens i produksjon, forsyningskjedehåndtering og smart beslutningstaking.
Ifølge informasjon fra Foxconn ga Nvidia støtte gjennom sin superdatamaskin «Taipei-1» som ligger i Taiwan, og tilbød teknisk rådgivning under modelltreningsprosessen.
Taipei-1, Taiwans største superdatamaskin, eies og drives av Nvidia i Kaohsiung, en by sør på øya.
Foxconn forventes å kunngjøre flere detaljer om denne modellen på Nvidias GTC-utviklerkonferanse i midten av mars.
(Kilde: Reuters)
[annonse_2]
Kilde: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm







Kommentar (0)