Die Zukunft der KI wird zu einem heiß diskutierten Thema unter Technikern und Politikern, die versuchen herauszufinden, wie sich die Technologie entwickeln wird und wie sie reguliert werden sollte.
ChatGPT, der Chatbot von OpenAI, der im letzten Jahr viral ging, hat dazu beigetragen, das Bewusstsein für KI zu schärfen, da viele große Unternehmen auf der ganzen Welt Konkurrenzprodukte auf den Markt gebracht haben oder auf den Markt bringen werden.
Auf der CEO Council-Konferenz des Wall Street Journal äußerte der ehemalige Google-Chef Schmidt Bedenken hinsichtlich der KI und bezeichnete die Technologie als „existenzielles Risiko“, das viele Menschen schädigen oder töten könnte. Laut Schmidt sind solche Szenarien noch nicht eingetreten, könnten aber kurzfristig eintreten, wenn KI-Systeme ungenutzte Schwachstellen im Cyberspace finden oder neue biologische Arten entdecken.
Diese Dinge klingen heute wie Science-Fiction, sind aber möglich. Wenn sie eintreten, müssen wir darauf vorbereitet sein, dass sie nicht von böswilligen Akteuren missbraucht werden, sagte er.
Schmidt, von 2001 bis 2011 CEO von Google, hatte keine klare Vorstellung davon, wie man mit KI umgehen sollte. Er sagte lediglich, es handele sich um eine „große Frage für die gesamte Gesellschaft“.
Er ist nicht der erste Technologe, der vor den Risiken der künstlichen Intelligenz warnt. Sam Altman, CEO von OpenAI, gab zu, „ein wenig Angst“ vor KI zu haben. Er befürchtet, dass autoritäre Regierungen diese Technologie entwickeln könnten. Tesla-Chef Elon Musk bezeichnete KI unterdessen als eines der „größten Risiken“ für die Zivilisation.
Google-CEO Sundar Pichai glaubt, dass KI jedes Produkt des Unternehmens beeinflussen wird und die Gesellschaft sich auf die Veränderungen vorbereiten muss.
Schmidt ist Mitglied der Nationalen Sicherheitskommission für KI in den USA. Die Behörde begann 2019 mit der Bewertung der Technologie. 2021 veröffentlichte die Kommission einen Bericht, aus dem hervorgeht, dass die USA nicht auf das KI-Zeitalter vorbereitet waren.
(Laut CNBC)
[Anzeige_2]
Quelle
Kommentar (0)