Op 12 september lanceerde OpenAI een reeks nieuwe modellen voor kunstmatige intelligentie (AI) die meer tijd aan denken kunnen besteden om gebruikers nauwkeurigere en nuttigere antwoorden te geven.
De nieuwe modellen, bekend als OpenAI o1-Preview, zijn ontworpen om complexe taken en moeilijkere problemen in de wetenschap , codering en wiskunde aan te pakken. Dit zijn gebieden waarop eerdere modellen vaak werden bekritiseerd omdat ze geen consistente antwoorden konden bieden.
OpenAI o1-Preview is getraind om het denkproces te verfijnen, verschillende benaderingen te testen en fouten te detecteren voordat er een definitief antwoord wordt gegeven.
Sam Altman, CEO van OpenAI, noemde de nieuwe modellen ‘geschikt voor complexe redeneringen’, hoewel ze mogelijk nog steeds tekortkomingen en beperkingen hebben.
OpenAI werkt daarom nog steeds aan het verbeteren van de mogelijkheden van AI-modellen om het 'illusieprobleem' te overwinnen: een fenomeen waarbij chatbots overtuigende, maar onnauwkeurige content creëren.
OpenAI-onderzoeker Jerry Tworek zei dat het nieuwe model minder vatbaar zou zijn voor het 'illusie'-probleem, maar dat het het probleem nog steeds niet volledig oplost.
Het is bekend dat OpenAI o1-Preview-modellen moeilijke taken in de natuurkunde, scheikunde en biologie op PhD-niveau succesvol hebben opgelost.
Met name op het gebied van wiskunde en programmeren behaalde deze OpenAI o1-Preview een nauwkeurigheidspercentage tot wel 83% bij het oplossen van de vragen in het toelatingsexamen voor de Internationale Wiskunde Olympiade. Dit percentage is aanzienlijk hoger dan de 13% van het vorige GPT-4o-model.
Volgens OpenAI kunnen de nieuwe redeneermogelijkheden onderzoekers in de gezondheidszorg helpen bij het annoteren van celsequentiedata, terwijl de tool natuurkundigen kan helpen bij het ontwikkelen van complexe formules.
OpenAI meldde ook dat de nieuwe AI-modellen strenge jailbreak-tests hebben doorstaan en bestand zijn tegen pogingen om beveiligingsbarrières te omzeilen.
Ook de veiligheidsmaatregelen zijn aangescherpt, met onder meer recente overeenkomsten met het Amerikaanse en Britse AI Safety Institute, dat als eerste toegang heeft gekregen tot deze modellen voor testen en evaluatie.
Bron: https://laodong.vn/cong-nghe/openai-ra-mat-sieu-ai-moi-voi-kha-nang-lap-luan-1393825.ldo
Reactie (0)