Het vermogen van het model om te redeneren, complexe wiskundige problemen op te lossen en wetenschappelijke onderzoeksvragen te beantwoorden, wordt gezien als een grote stap voorwaarts in de ontwikkeling van kunstmatige algemene intelligentie (AGI): machines met menselijke cognitieve vermogens.
OpenAI zei dat het bijzonder "voorzichtig" was met de manier waarop het het o1-model aan het publiek presenteerde, gezien de geavanceerde mogelijkheden ervan. Foto: Getty Images
Volgens de Financial Times beoordeelde OpenAI het risico van deze nieuwe modellen als "gemiddeld" voor problemen met betrekking tot chemische, biologische, radiologische en nucleaire (CBRN) wapens, het hoogste niveau dat het bedrijf ooit heeft beoordeeld. Dit betekent dat de technologie het vermogen van experts om biologische wapens te ontwikkelen "aanzienlijk heeft verbeterd".
Volgens deskundigen kan AI-software die tot in detail kan redeneren, het risico op misbruik vergroten, vooral in de handen van kwaadwillenden.
Professor Yoshua Bengio, een wereldwijd toonaangevende AI-wetenschapper van de Universiteit van Montreal, benadrukt dat dit gemiddelde risiconiveau de urgentie van AI-regelgeving vergroot, zoals SB 1047, dat momenteel in Californië wordt besproken. Deze wet verplicht AI-ontwikkelaars maatregelen te nemen om het risico te verkleinen dat hun modellen worden misbruikt voor de ontwikkeling van biologische wapens.
Volgens The Verge zijn de beveiliging en veiligheid van AI-modellen een groot aandachtspunt geworden, omdat technologiebedrijven als Google, Meta en Anthropic hard werken om geavanceerde AI-systemen te bouwen en verbeteren.
Deze systemen kunnen mensen enorm helpen bij het uitvoeren van taken en op allerlei gebieden. Ze brengen echter ook uitdagingen met zich mee op het gebied van veiligheid en maatschappelijke verantwoordelijkheid.
Cao Phong (volgens FT, Reuters, The Verge)
Bron: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Reactie (0)