Vietnam.vn - Nền tảng quảng bá Việt Nam

„Warum ist KI gefährlich?“

Báo Quân đội Nhân dânBáo Quân đội Nhân dân04/04/2023

[Anzeige_1]

Tatsächlich ist es nicht das erste Mal, dass Wissenschaftler davor warnen, dass künstliche Intelligenz für den Menschen gefährlich werden könnte. Bereits 2014 sagte der berühmte britische theoretische Physiker Stephen Hawking: „Die umfassende Entwicklung künstlicher Intelligenz könnte die Menschheit zerstören.“ Er sagte außerdem, dass der Mensch in den nächsten 500 Jahren vollständig durch künstliche Intelligenz ersetzt werden werde, wenn er bei der Erforschung und Entwicklung dieser gefährlichen Technologie nicht vorsichtig sei. Vor acht Jahren, im Juli 2015, unterzeichneten mehr als 1.000 Experten für künstliche Intelligenz, darunter Stephen Hawking, Elon Musk und Noam Chomsky, eine Petition, die vor dem Risiko eines Wettrüstens im Bereich der militärischen KI warnte und ein umfassendes Verbot autonomer Waffen forderte. Die Einführung von Chat GPT durch OpenAI im November 2022 hat die existenziellen Gefahren künstlicher Intelligenz weiter verstärkt. Tatsächlich zeigt das, was Chat GPT tut, dass KI in gewissem Maße viel gefährlicher ist, als man einst dachte.

Die potenziellen Risiken künstlicher Intelligenz hängen von ihrer Nutzung ab. KI wurde ursprünglich entwickelt, um Menschen bei ihrer Arbeit zu unterstützen, insbesondere bei langweiligen und repetitiven Aufgaben wie der Bildklassifizierung und Informationsüberprüfung. Angesichts der rasanten Entwicklung der KI in letzter Zeit befürchten Wissenschaftler und Technologieexperten jedoch, dass künstliche Intelligenz, wenn sie unkontrolliert entwickelt oder für den falschen Zweck programmiert wird, schwerwiegende Folgen für Mensch und Gesellschaft haben kann.

Risiko der Unsicherheit

Künstliche Intelligenz könnte eine Bedrohung für die nationale und persönliche Sicherheit darstellen. Elon Musk warnte, dass KI zu einem furchterregenden Werkzeug im Krieg werden könnte. Entwickelt ein Land ein überlegenes System künstlicher Intelligenz, könnte es dieses für Angriffe auf andere Länder einsetzen. Stuart Russell, Professor für Informatik an der University of California, forscht seit Jahrzehnten zu künstlicher Intelligenz. Er warnte vor den Sicherheitsrisiken durch KI und sagte, dass wir durch die Integration und Miniaturisierung bestehender Technologien nun autonome Angriffswaffen herstellen könnten.

Das Experiment wurde von Professor Stuart Russell und dem Future of Life Institute (FLI) mit einem Killerroboter (Slaughterbot) durchgeführt, einem mikroskopisch kleinen Fluggerät, das mit Kameras, Sensoren, Bildverarbeitungssoftware, Gesichtserkennung, einem 3-Gramm-Sprengstoff und einem Hochgeschwindigkeits-Mikroprozessor ausgestattet ist. Dadurch ist die Datenanalyse und Reaktion hundertmal schneller als das menschliche Gehirn. Gemäß den Programmierparametern greift der Killerroboter kontinuierlich auf Cloud-Daten zu, um Informationen über das Ziel zu suchen und einen Weg zu finden, sich ihm zu nähern. Ist er gefunden, rast er mit hoher Geschwindigkeit direkt auf das Ziel zu, aktiviert den 3-Gramm-Sprengstoff, bohrt sich tief in den Schädel und tötet das Opfer im Handumdrehen.

Es handelt sich lediglich um ein Experiment mit KI auf grundlegendster Ebene. Wird KI zur Entwicklung neuer, ausgefeilterer Angriffsmethoden eingesetzt, könnte dies auch die Angriffskraft der Angreifer erhöhen und schwerwiegendere Folgen haben als herkömmliche Angriffe. Wenn KI so weit entwickelt ist, dass sie selbstständig Entscheidungen treffen kann, um mit Veränderungen in der Umgebung umzugehen, alternative Ziele zu finden oder den Zielbereich zu erweitern, ist die Menschheit möglicherweise nicht mehr sicher. Viele Fachkollegen stimmen Professor Stuart Russell zu und glauben, dass es noch eine Chance gibt, eine solch düstere Zukunft zu verhindern, aber uns bleibt nicht mehr viel Zeit.

Das Risiko, dass KI organisiert und autonom wird und das System kontrolliert

KI kann falsch konzipiert oder durch maschinelles Lernen nicht richtig „trainiert“ werden und unerwünschte Aktionen ausführen, die Mensch und Umwelt schaden. Spezifische Beispiele sind die folgenden: Durch maschinelles Lernen wird KI immer intelligenter. Wenn künstliche Intelligenz ein Intelligenzniveau erreicht, das über die Unterstützung wichtiger Systeme wie Elektrizität, Transport, Gesundheit , Finanzen usw. hinausgeht, kann sie all diese Systeme beherrschen und steuern sowie in Notfallsituationen Entscheidungen treffen und umsetzen. Wenn KI mit zusätzlichen „ehrgeizigen“ Zwecken „ausgestattet“ wird (falsch konzipiert), kann sie viele ernste Folgen haben, wie etwa Störungen des Verkehrssystems durch Deaktivierung der Ampelanlage oder Unterbrechung der Stromversorgung der S-Bahn, was eine Reihe von Unfällen oder flächendeckende Stromausfälle verursacht usw.

Viele Hollywood- und andere Filme basieren auf diesem Szenario. Mit der aktuellen KI-Technologie ist dies jedoch keine ferne Zukunftsmusik mehr, sondern kann durchaus Realität werden. Elon Musk ist überzeugt, dass eine unkontrollierte Entwicklung der KI, die bis zu dem Punkt geht, an dem sie Entscheidungen ohne menschliches Zutun automatisiert, eine Bedrohung für das Überleben der Menschheit darstellen könnte. Aus diesem Grund unterzeichneten er und Tausende Technologieexperten einen Brief, in dem sie einen vorübergehenden Stopp und eine strenge und transparente Kontrolle des KI-Entwicklungsprozesses fordern. Laut Elon Musk sind künstliche Intelligenzsysteme sehr komplex, schwer zu verstehen und ihre Kontrolle ist sehr schwierig. Ohne Transparenz wird es mit Sicherheit dazu kommen, dass künstliche Intelligenz für unethische Zwecke missbraucht wird und Menschen Schaden zufügt.

Risiko des Arbeitsplatzverlusts, Verletzung der Privatsphäre

Künstliche Intelligenz kann beim Sammeln personenbezogener Daten dazu eingesetzt werden, die Privatsphäre zu verletzen, Desinformationsaktivitäten durchzuführen und Falschinformationen zu verbreiten, die die soziale und politische Stabilität beeinträchtigen. Der Hackerangriff auf das Netzwerksystem des Office of Personnel Management (OPM) der US-Regierung ist für jedes Land und jede Organisation bemerkenswert. Detaillierte und hochsensible personenbezogene Daten von 21,5 Millionen aktiven und ehemaligen US-Beamten, Informationen über deren Ehepartner, Daten von Bewerbern für Regierungsjobs wie Gesundheitszustand, Wohnsitz, Arbeit, Fingerabdrücke und Finanzinformationen fielen Hackern in die Hände. Noch erschreckender ist jedoch die Tatsache, dass die CIA entdeckte, dass der OPM-Datendieb künstliche Intelligenz einsetzte, um personenbezogene Daten zu scannen, zu fälschen und virtuelle Spione zu erstellen, um Daten zu stehlen. Die gestohlenen Informationen werden mithilfe von Big-Data-Technologie analysiert, klassifiziert und für spezifische Zwecke genutzt. Künstliche Intelligenz hilft dem Informationsdieb, die Zeit für die Informationsgewinnung zu verkürzen, da Menschen nicht in der Lage sind, eine so große Menge an Informationen in so kurzer Zeit zu verarbeiten.

Neben den oben genannten Gefahren birgt die KI-Technologie auch weitere Risiken, beispielsweise: Übermäßiges Vertrauen in sie kann dazu führen, dass Menschen die Kontrolle über die Situation verlieren und ihre Entscheidungsfähigkeit eingeschränkt ist. Künstliche Intelligenz wird zudem dazu führen, dass Millionen, ja sogar Hunderte Millionen Menschen ihren Arbeitsplatz verlieren, insbesondere in rein manuellen Berufen mit geringem Wissensgehalt. Infolgedessen werden sich schwerwiegende soziale Probleme wie Arbeitslosigkeit, Kriminalität und die Kluft zwischen Arm und Reich verschärfen. Darüber hinaus ist auch die Verlässlichkeit ein Thema, das erwähnt werden muss. Die Verlässlichkeit von Entscheidungen in hochspezialisierten Bereichen wie der Medizin oder dem Strafrecht ist äußerst wichtig. Wenn KI zur Entscheidungsfindung in Bereichen eingesetzt wird, in denen die Technologie nicht zuverlässig genug ist, auf Daten basiert, die eine Person oder eine Gruppe bevorzugen oder absichtlich verzerrt sind, können diese Entscheidungen schwerwiegende Folgen haben.

Wie kann man vorbeugen?

Die oben genannten Risiken sind der Grund, warum Elon Musk und Technologieexperten über die unkontrollierte Entwicklung von KI besorgt sind. In einem Brief forderten sie die Vereinten Nationen und internationale Organisationen auf, die KI-Entwicklung streng zu kontrollieren, ihre Sicherheit und Ethik zu gewährleisten und die internationale Zusammenarbeit zu stärken, um sicherzustellen, dass KI-Technologie zum Wohle von Mensch und Gesellschaft eingesetzt wird. Konkrete Maßnahmen sind:

- Kontrolle der Systemzuverlässigkeit: KI muss so konzipiert und entwickelt werden, dass Sicherheit und Zuverlässigkeit durch strenge, regelmäßige und kontinuierliche Qualitätstests, Kontroll- und Überwachungsmethoden gewährleistet sind, um sicherzustellen, dass das KI-System gemäß den menschlichen Erwartungen funktioniert und unerwünschte Auswirkungen aufgrund seiner mangelnden Zuverlässigkeit vermieden werden.

Künstliche Intelligenz muss so programmiert werden, dass sie ethischen Werten und gesellschaftlichen Normen entspricht. Diese Regeln und Standards müssen klar festgelegt und überwacht werden, um sicherzustellen, dass sie weder Menschen noch Organisationen schaden. Die Analyse, Bewertung und Überwachung des Betriebs von KI-Systemen muss regelmäßig durchgeführt werden, um sicherzustellen, dass sie ordnungsgemäß funktionieren, die gemeinsamen Werte der Gesellschaft nicht verletzen oder untergraben, keine negativen Auswirkungen verursachen und die Vermittlung korrekter Kenntnisse und Werte gewährleisten.

links Center Rechts del
Der Journalismus ist eine der Branchen, die stark von künstlicher Intelligenz beeinflusst werden. In Zukunft wird es keine Moderatoren mehr geben, die im Radio den Off-Vortrag übernehmen, und sogar virtuelle Moderatoren, die im Fernsehen den On-Vortrag übernehmen, werden dominieren.

Eine mindestens sechsmonatige Pause im „Training“ von KI-Systemen, um eine vollständige Neubewertung zu ermöglichen. Diese Pause muss öffentlich und kontrolliert erfolgen, und alle am Training beteiligten Schlüsselakteure müssen daran teilnehmen. Gegebenenfalls sollten Regierungen ein vorübergehendes Moratorium verhängen. Dies bedeutet keinen vollständigen Stopp der KI-Entwicklung, sondern lediglich eine Unterbrechung des gefährlichen Wettlaufs hin zu anderen Entwicklungsmodellen, die KI-Systeme präziser, sicherer, verständlicher, transparenter, konsistenter, vertrauenswürdiger und loyaler machen. Dies ist eine umfassende Lösung, die Elon Musk und seine Kollegen in ihrem offenen Brief fordern, aber sie ist kaum umsetzbar. Es ist für alle unabhängigen Labore sehr schwierig, einem solchen unverbindlichen und länderübergreifenden Aufruf nachzukommen.

- Stärkung der Zusammenarbeit und des Informationsaustauschs zwischen Ländern und unabhängigen KI-Forschungsorganisationen, um eine sichere Entwicklung und Nutzung von KI in Zukunft zu gewährleisten. Zusammenarbeit und Informationsaustausch sind auch Maßnahmen, um mögliche zukünftige Risiken frühzeitig zu erkennen und zu verhindern.

KI ist allgegenwärtig, und Geschichten wie das Schreiben von Gedichten, Musik und Artikeln durch künstliche Intelligenz sind Realität geworden und nicht länger Fiktion. Der Autor dieses Artikels selbst nutzt künstliche Intelligenz auf Computern und Smartphones, um seinen Schreibprozess komfortabler und schneller zu gestalten. Insbesondere das Kapitel dieses Artikels und einige Ideen werden von KI vorgeschlagen, und insbesondere alle in diesem Artikel verwendeten Fotos wurden von KI erstellt. Künstliche Intelligenz ist sehr nützlich, um die Arbeits- und Lebensqualität des Menschen zu verbessern, muss aber streng kontrolliert werden, um nicht außer Kontrolle zu geraten und das Risiko einzugehen, den Menschen in Zukunft zu ersetzen, wie es der theoretische Physiker Stephen Hawking vorhergesagt hat.

Artikel und Fotos: HUU DUONG

[Anzeige_2]
Quelle

Kommentar (0)

No data
No data
STÜCKE von HUE - Stücke von Hue
Magische Szene auf dem „umgedrehten Teehügel“ in Phu Tho
3 Inseln in der Zentralregion werden mit den Malediven verglichen und ziehen im Sommer Touristen an
Beobachten Sie nachts die glitzernde Küstenstadt Gia Lai in Quy Nhon
Bild von Terrassenfeldern in Phu Tho, sanft abfallend, hell und schön wie Spiegel vor der Pflanzsaison
Z121 Factory ist bereit für die International Fireworks Final Night
Berühmtes Reisemagazin lobt Son-Doong-Höhle als „die großartigste der Welt“
Geheimnisvolle Höhle zieht westliche Touristen an, vergleichbar mit der „Phong Nha-Höhle“ in Thanh Hoa
Entdecken Sie die poetische Schönheit der Vinh Hy Bay
Wie wird der teuerste Tee in Hanoi, der über 10 Millionen VND/kg kostet, verarbeitet?

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt