:Telefoon met de GPT-o1-leerinterface van OpenAI - Foto: FINANCIAL TIMES
Volgens de Financial Times gaf het bedrijf OpenAI op 13 september toe dat het GPT-o1-model, dat op 12 september werd gelanceerd, het risico dat kunstmatige intelligentie (AI) wordt gebruikt om biologische wapens te creëren, "aanzienlijk" vergroot.
In een document van OpenAI waarin de werking van GPT-o1 wordt uitgelegd, staat dat het nieuwe model een "gemiddeld risiconiveau" heeft voor problemen met chemische, biologische, radiologische en nucleaire wapens. Dit is het hoogste risiconiveau dat OpenAI ooit aan zijn AI-modellen heeft toegekend.
Volgens OpenAI zou dit de mogelijkheden van experts die GPT-o1 willen misbruiken om biologische wapens te maken, "drastisch kunnen verbeteren".
Mira Murati, Chief Technology Officer (CTO) van OpenAI, zei dat GPT-o1 zich nog in de testfase bevindt, maar dat de geavanceerde mogelijkheden van het model het bedrijf nog steeds dwingen om uiterst "voorzichtig" te zijn over de roadmap die het bedrijf naar buiten brengt.
Mevrouw Murati bevestigde ook dat het model grondig was getest door een multidisciplinair team van experts dat door OpenAI was ingehuurd om de grenzen van het door het bedrijf ontwikkelde model te testen.
Uit het testproces bleek dat het GPT-o1-model veel beter aan de algemene veiligheidscriteria voldoet dan zijn voorgangers, aldus mevrouw Murati.
Daarnaast verzekerden vertegenwoordigers van OpenAI dat de proefversie van GPT-o1 "veilig voor implementatie" is en geen complexere risico's kan creëren dan de ontwikkelde technologieën.
Ondanks bovenstaande garanties zijn veel wetenschappers en geïnteresseerden in AI nog steeds niet erg optimistisch over de ontwikkelingsrichting van deze technologie.
Er is steeds meer bezorgdheid dat AI zich te snel ontwikkelt en de ontwikkeling en goedkeuring van regelgeving daarvoor achter zich laat.
Professor Yoshua Bengio, hoofd computerwetenschappen aan de Universiteit van Montreal en een van 's werelds meest vooraanstaande AI-wetenschappers, zei dat als OpenAI nu een "middelgroot risico" vormt voor chemische en biologische wapens, "dit alleen maar het belang en de urgentie" van wetten versterkt, zoals de wetgeving die in Californië hevig wordt besproken om dit gebied te reguleren.
Deze wetenschapper benadrukte dat bovengenoemde instellingen vooral noodzakelijk zijn in een context waarin AI steeds meer het niveau van kunstmatige algemene intelligentie (AGI) nadert, wat inhoudt dat AI op gelijke voet met mensen kan redeneren.
"Hoe dichter baanbrekende AI-modellen bij AGI komen, hoe groter de risico's als er geen passende voorzorgsmaatregelen worden genomen. Het verbeterde redeneringsvermogen van AI en het gebruik ervan voor fraude zijn extreem gevaarlijk", aldus Bengio.
Bron: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Reactie (0)