Op 12 september lanceerde OpenAI een reeks nieuwe kunstmatige intelligentiemodellen (AI-modellen) die meer tijd kunnen besteden aan nadenken om zo nauwkeurigere en nuttigere antwoorden aan gebruikers te kunnen geven.
De nieuwe modellen, bekend als OpenAI o1-Preview, zijn ontworpen om complexere taken en uitdagende problemen op te lossen in de wetenschap , programmering en wiskunde – vakgebieden waar eerdere modellen vaak bekritiseerd werden omdat ze geen consistente antwoorden gaven.
OpenAI o1-Preview is getraind om zijn denkproces te verfijnen, te experimenteren met verschillende methoden en fouten op te sporen voordat het een definitief antwoord geeft.
Sam Altman, CEO van OpenAI, schatte de nieuwe modellen in als beschikkend over "complexe redeneermogelijkheden", hoewel ze mogelijk nog veel tekortkomingen en beperkingen hebben.
Daarom werkt OpenAI nog steeds aan het verbeteren van de mogelijkheden van zijn AI-modellen om het "hallucinatie"-probleem te overwinnen – een fenomeen waarbij chatbots overtuigende, maar onjuiste content creëren.
OpenAI-onderzoeker Jerry Tworek zei dat het nieuwe model minder "illusie"-problemen zal veroorzaken, maar dat het het probleem niet volledig oplost.
Naar verluidt hebben de OpenAI o1-Preview-modellen met succes uitdagende vraagstukken op het gebied van natuurkunde, scheikunde en biologie opgelost met een expertise die gelijkwaardig is aan die van gepromoveerden.
Met name op het gebied van wiskunde en programmeren behaalde OpenAI o1-Preview een nauwkeurigheidspercentage van maar liefst 83% bij het oplossen van problemen tijdens de Internationale Wiskunde Olympiade. Dit percentage is aanzienlijk hoger dan de 13% nauwkeurigheid van het vorige GPT-4o-model.
Volgens OpenAI kan deze nieuwe redeneermogelijkheid onderzoekers in de gezondheidszorg helpen bij het annoteren van celsequentiedata. Tegelijkertijd kan de tool natuurkundigen ondersteunen bij het ontwikkelen van complexe formules.
OpenAI verklaarde tevens dat de nieuwe AI-modellen strenge jailbreak-tests hebben doorstaan en bestand zijn tegen pogingen om beveiligingsmaatregelen te omzeilen.
Daarnaast zijn de veiligheidsmaatregelen aangescherpt, onder meer door recente overeenkomsten met de AI Safety Institutes in de VS en het VK, die vroegtijdig toegang hebben gekregen tot deze modellen voor testen en evaluatie.
Bron: https://laodong.vn/cong-nghe/openai-ra-mat-sieu-ai-moi-voi-kha-nang-lap-luan-1393825.ldo






Reactie (0)