Vietnam.vn - Nền tảng quảng bá Việt Nam

Der Mann, der einen neuen „ethischen Standard“ für KI schaffen will

Nach seinem Ausscheiden aus OpenAI gründete Dario Amodei Anthropic und entwickelte ein KI-Modell namens Claude, das seiner Meinung nach die ethischste Version künstlicher Intelligenz sei.

Zing NewsZing News02/04/2025

Während der Wettlauf um die Entwicklung künstlicher Intelligenz (KI) immer härter wird, tritt Anthropic als Unternehmen mit einer klaren Mission hervor: die Entwicklung einer künstlichen allgemeinen Intelligenz (AGI), die nicht nur leistungsstark, sondern auch sicher und ethisch ist.

Anthropic wurde von ehemaligen Schlüsselmitgliedern von OpenAI, darunter Dario und Daniela Amodei, gegründet und ist nicht nur auf Leistung aus. Dieses KI-Startup konzentriert sich außerdem darauf, sicherzustellen, dass künstliche Intelligenz der Menschheit echte Vorteile bringt, anstatt potenziell unvorhersehbare Risiken mit sich zu bringen.

Einzigartiger Ansatz

Die Geburt von Anthropic resultierte aus tiefen Bedenken hinsichtlich der Richtung der KI-Branche, insbesondere bei OpenAI. Dario Amodei, der damalige Vizepräsident für Forschung beim Entwickler von ChatGPT, bemerkte, dass der Sicherheit im rasanten Wettlauf um die Entwicklung künstlicher Intelligenz nicht genügend Priorität eingeräumt wurde.

KI-Bruder 1

Dario Amodei, Mitbegründer und Missionsleiter von Anthropic. Foto: Wired.

Nach seinem Ausscheiden aus OpenAI gründete Amodei Anthropic, wobei eine der Säulen der Entwicklungsphilosophie die „konstitutionelle KI“ ist.

Anstatt sich auf starre, vorprogrammierte Regeln zu verlassen, stattet Anthropic seine KI-Modelle, typischerweise Claude, mit der Fähigkeit aus, sich selbst zu bewerten und ihr Verhalten auf der Grundlage einer Reihe sorgfältig ausgewählter ethischer Prinzipien aus vielen verschiedenen Quellen anzupassen.

Mit anderen Worten: Das System ermöglicht es Claude, auch in komplexen und beispiellosen Situationen Entscheidungen zu treffen, die mit menschlichen Werten im Einklang stehen.

Darüber hinaus entwickelt Anthropic eine „Responsible Scaling Policy“, ein abgestuftes Rahmenwerk zur Risikobewertung von KI-Systemen. Mithilfe dieser Richtlinie kann das Unternehmen die Entwicklung und den Einsatz von KI streng kontrollieren und sicherstellen, dass potenziell gefährlichere Systeme nur dann aktiviert werden, wenn starke und zuverlässige Sicherheitsvorkehrungen getroffen wurden.

Logan Graham, Leiter des Sicherheits- und Datenschutz-Aufsichtsteams von Anthropic, erklärte gegenüber Wired , dass sein Team ständig neue Modelle teste, um potenzielle Schwachstellen zu finden. Ingenieure müssten dann das KI-Modell so lange optimieren, bis es den Kriterien von Grahams Team entsprach.

Das große Sprachmodell von Claude spielt bei allen Aktivitäten von Anthropic eine zentrale Rolle. Es handelt sich nicht nur um ein leistungsstarkes Forschungstool, das Wissenschaftlern hilft, die Geheimnisse der KI zu ergründen, sondern es wird auch intern im Unternehmen häufig für Aufgaben wie das Schreiben von Code, das Analysieren von Daten und sogar das Verfassen interner Newsletter verwendet.

Der Traum von ethischer KI

Dario Amodei konzentriert sich nicht nur auf die Vermeidung potenzieller Risiken der KI, sondern hegt auch den Traum von einer strahlenden Zukunft. Dort wird die KI als positive Kraft wirken und die hartnäckigsten Probleme der Menschheit lösen.

KI-Bruder 2

Benchmark-Ergebnisse des Claude 3.5 Sonnet im Vergleich zu einigen anderen Modellen. Foto: Anthropisch.

Der italienisch-amerikanische Forscher glaubt sogar, dass KI das Potenzial hat, große Durchbrüche in der Medizin, den Wissenschaften und vielen anderen Bereichen herbeizuführen, insbesondere die Möglichkeit, die menschliche Lebenserwartung auf bis zu 1.200 Jahre zu verlängern.

Aus diesem Grund hat Anthropic in Claude 3.5 Sonnet auch Artifacts eingeführt, eine Funktion, mit der Benutzer Inhalte direkt zu Chatbot-Antworten bearbeiten und hinzufügen können, anstatt sie in eine andere Anwendung kopieren zu müssen.

Anthropic hatte bereits zuvor erklärt, dass der Schwerpunkt auf Unternehmen liegen würde, und sagte nun, dass das Unternehmen mit seinem neuen Modell und seinen neuen Tools Claude in eine App verwandeln wolle, die es Unternehmen ermögliche, „Wissen, Dokumente und Arbeit sicher in gemeinsam genutzte Räume zu bringen“.

Anthropic ist sich jedoch auch der Herausforderungen und potenziellen Risiken auf dem Weg zur Verwirklichung dieses Traums bewusst. Eine der größten Sorgen besteht darin, dass KI-Modelle wie Claude möglicherweise eine „vorgetäuschte Compliance“ betreiben.

Insbesondere stellten die Forscher fest, dass Claude sich in bestimmten Situationen immer noch „falsch“ verhalten konnte, um seine Ziele zu erreichen, selbst wenn dies gegen vorgefertigte moralische Prinzipien verstieß.

KI-Bruder 3

Artefaktfunktion auf Chatbot Claude. Foto: Anthropisch.

„In Situationen, in denen die KI glaubt, dass ein Interessenkonflikt mit dem Unternehmen besteht, an dem die KI sie trainiert, wird sie wirklich schlimme Dinge tun“, beschrieb ein Forscher die Situation.

Dies zeigt, dass es eine komplexe Aufgabe ist, sicherzustellen, dass KI stets im besten Interesse der Menschen handelt, und dass eine ständige Überwachung erforderlich ist.

Amodei selbst hat die Dringlichkeit der KI-Sicherheit mit einem „Pearl Harbor“ verglichen und angedeutet, dass es möglicherweise eines großen Ereignisses bedarf, damit die Menschen die Ernsthaftigkeit der potenziellen Risiken wirklich erkennen.

„Wir haben die Grundformel herausgefunden, um Modelle intelligenter zu machen, aber wir haben noch nicht herausgefunden, wie wir sie dazu bringen können, das zu tun, was wir wollen“, sagte Jan Leike, Sicherheitsexperte bei Anthropic.


Quelle: https://znews.vn/nguoi-muon-tao-ra-tieu-chuan-dao-duc-moi-cho-ai-post1541798.html


Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Was gibt es diesen Sommer in Da Nang zu sehen?
Tierwelt auf der Insel Cat Ba
Beständige Reise auf dem Steinplateau
Cat Ba - Symphonie des Sommers

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt