Interaktive Schnittstelle von Project Astra. Foto: Google . |
Auf der Veranstaltung I/O 2025, die am frühen Morgen des 21. Mai (Vietnam-Zeit) stattfand, kündigte Google eine Reihe neuer Funktionen von Project Astra an. Das erstmals im Jahr 2024 gestartete Projekt Astra verwendet ein multimodales KI-Modell, um Bilder und visuelle Informationen in Echtzeit zu erfassen und zu analysieren. Dies ist das große Ziel von Google, KI im Leben nützlicher zu machen.
Nach einer Testphase werden einige Funktionen von Project Astra wie Sprachfeedback, Speicher und grundlegende Berechnungen in Gemini- und Google-Apps erscheinen.
Während der Veranstaltung demonstrierte Google einige Möglichkeiten, wie Astra den Alltag erleichtern kann. Astra kann nicht nur Fragen beantworten und sich mithilfe der Kamera merken, wo die Brille hingelegt wurde, sondern jetzt auch Aufgaben proaktiv erledigen, ohne dass der Benutzer danach fragt.
„Astra kann basierend auf dem, was es sieht, entscheiden, wann es spricht. Es beobachtet ständig und reagiert entsprechend“, sagte Greg Wayne, Forscher bei DeepMind.
Laut The Verge könnte die Funktion die Funktionsweise von KI verändern. Anstatt darauf zu warten, dass der Benutzer die Kamera ausrichtet und Hilfe anfordert, kann Astra kontinuierlich überwachen, zuhören und bei Bedarf automatisch helfen. Derzeit konzentriert sich Google auf die Entwicklung von Astra für Smartphones und Smart Glasses.
Wayne gibt einige Beispiele dafür, wie Astra funktioniert. Während der Hausaufgaben erledigt werden, kann das Tool die Arbeit überwachen und sofort einen Alarm auslösen, wenn es Fehler erkennt, anstatt zu warten, bis der Benutzer fertig ist und um eine Überprüfung bittet.
Demis Hassabis, CEO von DeepMind, sagte, Astra darauf zu trainieren, Aufgaben selbstständig auszuführen, sei eine der schwierigsten Techniken. Er nennt es „Situationslesen“, weil die KI bestimmen muss, wann sie helfen muss, welche Haltung sie einnehmen muss, wie sie helfen muss und wann sie schweigen muss. Dabei handelt es sich um Aktionen, die Menschen recht gut ausführen, die sich jedoch nur schwer quantifizieren und untersuchen lassen.
Das nächste Upgrade von Astra besteht darin, Benutzerinformationen im gesamten Web und in Google-Produkten zu erfassen. Laut The Verge kann das Tool den Zeitplan kennen, um mitzuteilen, wann das Haus verlassen werden soll, und E-Mail-Inhalte lesen, um beim Einchecken in Hotels Telefonnummern zu extrahieren …
![]() |
Die Hervorhebungsfunktion von Project Astra hilft beim Scannen von Objekten und beim Vergleichen von in anderen Anwendungen extrahierten Informationen. Foto: Google . |
Das letzte „Teil“ des Astra-Puzzles ist die Möglichkeit, den Umgang mit einem Android-Telefon zu erlernen. Bei der Veranstaltung demonstrierte Bibo Xiu, ein Vertreter der Produktabteilung von DeepMind, die Telefonkamera auf ein Headset von Sony und bat Astra, das Modell zu identifizieren.
Nachdem Astra geantwortet hatte, dass es sich bei den Kopfhörern um die Sony WH-1000XM4 oder WH-1000XM3 handeln könnte, bat Xiu das Tool weiter, die Bedienungsanleitung zu finden, und erklärte dann, wie man eine Verbindung zum Telefon herstellt. Nach Astras Anweisungen unterbrach Xiu ihn und bat den Chatbot, die Verbindung für ihn herzustellen. Sofort öffnete Astra die Einstellungen und führte den Vorgang selbst durch.
Der Vorgang verlief nicht ganz reibungslos, da Xiu Astra erlauben musste, den Telefonbildschirm zu überwachen. Google möchte in Zukunft Chatbots so ausstatten, dass sie Bildschirme automatisch überwachen können.
In einem anderen Google- Video bittet eine Person Astra, ein Handbuch für ein Huffy-Fahrrad zu finden, woraufhin sie zu einer bestimmten Seite mit Anweisungen zur Reparatur eines Fahrradteils weitergeleitet wird. Astra kann sogar ein YouTube-Video zum Entfernen einer abgenutzten Schraube finden und sich dann an das nächstgelegene Geschäft wenden, um ein Ersatzteil zu finden. Bei der Aufführung lief alles reibungslos.
Obwohl Astra noch nicht flächendeckend veröffentlicht wurde, sagte Google, dass die Bildanalysefunktion Gemini Live für alle iOS-Benutzer veröffentlicht wird (bisher wurde sie nur von Android unterstützt).
In Zukunft werde die KI von Google nicht nur auf Befehl handeln, sondern Astra werde helfen, „zu verstehen, was im Moment sichtbar ist und was nicht“, sagte Xiu.
Quelle: https://znews.vn/ai-cua-google-ngay-cang-thong-minh-post1554615.html
Kommentar (0)