Die Fähigkeit des Modells, logisch zu denken, komplexe mathematische Probleme zu lösen und wissenschaftliche Forschungsfragen zu beantworten, wird als großer Fortschritt bei der Entwicklung künstlicher allgemeiner Intelligenz (AGI) angesehen – Maschinen mit menschenähnlichen kognitiven Fähigkeiten.
OpenAI erklärte, man sei angesichts der fortschrittlichen Fähigkeiten des o1-Modells besonders vorsichtig gewesen, was die Veröffentlichung des Modells anbelangt. Foto: Getty Images
Laut Financial Times stufte OpenAI das Risiko dieser neuen Modelle im Zusammenhang mit chemischen, biologischen, radiologischen und nuklearen (CBRN-)Waffen als „mittel“ ein – die höchste Bewertung, die das Unternehmen je erhalten hat. Das bedeutet, dass die Technologie die Fähigkeiten von Experten zur Herstellung biologischer Waffen „deutlich verbessert“ hat.
Experten sagen, dass KI-Software, die zu detailliertem Denken fähig ist, insbesondere in den Händen böswilliger Akteure das Missbrauchsrisiko erhöhen kann.
Professor Yoshua Bengio, ein weltweit führender KI-Wissenschaftler von der Universität Montreal, betonte, dass dieses mittlere Risikoniveau die Dringlichkeit von KI-Regulierungen wie dem derzeit in Kalifornien diskutierten Gesetzentwurf SB 1047 erhöhe. Dieser verpflichtet KI-Hersteller, Maßnahmen zu ergreifen, um das Risiko zu verringern, dass ihre Modelle zur Entwicklung biologischer Waffen missbraucht werden.
Laut The Verge ist die Sicherheit von KI-Modellen zu einem großen Problem geworden, da Technologieunternehmen wie Google, Meta und Anthropic um die Wette laufen, um fortschrittliche KI-Systeme zu entwickeln und zu verbessern.
Diese Systeme können Menschen bei der Erledigung von Aufgaben und in zahlreichen Bereichen enorm unterstützen, stellen aber auch Herausforderungen in Bezug auf Sicherheit und soziale Verantwortung dar.
Cao Phong (laut FT, Reuters, The Verge)
[Anzeige_2]
Quelle: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Kommentar (0)