Das Modell ist in der Lage, logisches Denken zu entwickeln, komplexe mathematische Probleme zu lösen und wissenschaftliche Forschungsfragen zu beantworten. Dies gilt als wichtiger Fortschritt bei der Entwicklung künstlicher allgemeiner Intelligenz (AGI) – Maschinen mit kognitiven Fähigkeiten wie Menschen.
OpenAI erklärte, man sei angesichts der fortschrittlichen Fähigkeiten des O1-Modells besonders vorsichtig bei der Einführung. Foto: Getty Images
Laut Financial Times stufte OpenAI das Risiko dieser neuen Modelle im Zusammenhang mit chemischen, biologischen, radiologischen und nuklearen (CBRN-)Waffen als „mittel“ ein – die höchste Bewertung, die das Unternehmen je erhalten hat. Das bedeutet, dass die Technologie die Fähigkeiten von Experten zur Herstellung biologischer Waffen „deutlich verbessert“ hat.
Experten zufolge kann KI-Software, die zu detailliertem Denken fähig ist, insbesondere in den Händen böswilliger Akteure das Missbrauchsrisiko erhöhen.
Professor Yoshua Bengio, ein weltweit führender KI-Wissenschaftler von der Universität Montreal, betonte, dass dieses mittlere Risikoniveau die Dringlichkeit von KI-Regulierungen wie dem derzeit in Kalifornien diskutierten Gesetzentwurf SB 1047 erhöhe. Dieser verpflichtet KI-Hersteller, Maßnahmen zu ergreifen, um das Risiko zu verringern, dass ihre Modelle zur Entwicklung biologischer Waffen missbraucht werden.
Laut The Verge ist die Sicherheit von KI-Modellen zu einem großen Problem geworden, da Technologieunternehmen wie Google, Meta und Anthropic um die Wette laufen, um fortschrittliche KI-Systeme zu entwickeln und zu verbessern.
Diese Systeme bieten möglicherweise große Vorteile, da sie Menschen bei der Erledigung von Aufgaben unterstützen und in zahlreichen Bereichen Hilfe leisten, bringen aber auch Herausforderungen hinsichtlich der Sicherheit und sozialen Verantwortung mit sich.
Cao Phong (laut FT, Reuters, The Verge)
[Anzeige_2]
Quelle: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
Kommentar (0)