Die Fähigkeit des Modells, logisch zu denken, komplexe mathematische Probleme zu lösen und wissenschaftliche Forschungsfragen zu beantworten, wird als ein wichtiger Fortschritt bei den Bemühungen um die Entwicklung künstlicher allgemeiner Intelligenz (AGI) – Maschinen mit menschenähnlichen kognitiven Fähigkeiten – angesehen.
OpenAI erklärte, man sei angesichts der fortschrittlichen Fähigkeiten des o1-Modells besonders vorsichtig bei dessen Veröffentlichung vorgegangen. Foto: Getty Images
Laut Financial Times stufte OpenAI das Risiko dieser neuen Modelle in Bezug auf chemische, biologische, radiologische und nukleare (CBRN-)Waffen als „mittel“ ein – die höchste Risikoeinstufung, die das Unternehmen jemals vorgenommen hat. Dies bedeutet, dass die Technologie die Fähigkeiten von Experten zur Entwicklung biologischer Waffen „deutlich verbessert“ hat.
Experten zufolge kann KI-Software, die zu detaillierten Schlussfolgerungen fähig ist, insbesondere in den Händen von böswilligen Akteuren, das Missbrauchsrisiko erhöhen.
Professor Yoshua Bengio, ein weltweit führender KI-Wissenschaftler der Universität Montreal, betonte, dass dieses mittlere Risikoniveau die Dringlichkeit von KI-Regulierungen, wie beispielsweise dem in Kalifornien diskutierten Gesetzentwurf SB 1047, erhöht. Dieser Gesetzentwurf verpflichtet KI-Entwickler, Maßnahmen zu ergreifen, um das Risiko eines Missbrauchs ihrer Modelle zur Entwicklung biologischer Waffen zu verringern.
Laut The Verge ist die Sicherheit von KI-Modellen zu einem wichtigen Thema geworden, da Technologieunternehmen wie Google, Meta und Anthropic um die Wette fortschrittliche KI-Systeme entwickeln und verbessern.
Diese Systeme bergen das Potenzial, große Vorteile für den Menschen bei der Erledigung von Aufgaben und in verschiedenen Bereichen zu bieten, stellen aber auch Herausforderungen in Bezug auf Sicherheit und soziale Verantwortung dar.
Cao Phong (laut FT, Reuters, The Verge)
Quelle: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html






Kommentar (0)