
Es gibt die altbekannte Theorie, dass Apple eine Funktion, die es schon seit Jahren bei Android gibt, einfach auf das iPhone übertragen, ihr einen neuen Namen geben und sie dann als großartige Innovation anpreisen wird.
Genau das tat Apple auf seiner WWDC 2025 Keynote, als es eine Reihe neuer Funktionen vorstellte, die in Apple Intelligence verfügbar sein werden, sobald das Software-Update im Laufe dieses Jahres erscheint.
"Offensichtlich kopiert"
Eine Reihe neuer KI-gestützter Funktionen, die das Nutzererlebnis verbessern, werden auf iPhone, iPad, Mac, Apple Watch und Vision Pro verfügbar sein. Die wichtigste Funktion ist die Live-Übersetzung.
![]() |
Live-Übersetzungsfunktion in FaceTime-Anrufen. Foto: Apple. |
Die Live-Übersetzung wurde entwickelt, um Sprachbarrieren in der Kommunikation abzubauen und ist in Messaging-Apps, FaceTime und Smartphones integriert. Die Funktion läuft vollständig auf dem Gerät, um die Vertraulichkeit der Gespräche zu gewährleisten.
Nachrichten werden während der Eingabe automatisch übersetzt, und eingehende Antworten werden sofort übersetzt. Bei FaceTime werden Live-Untertitel angezeigt, während die Nutzer die Stimme ihres Gesprächspartners hören. Auch Telefongespräche werden in Echtzeit übersetzt.
Tatsächlich handelt es sich um eine nützliche Funktion, die Samsung mit seinem Galaxy AI eingeführt hat. Die koreanische Marke nennt diese Funktion sogar ähnlich: Live Translate.
Wie Apple übersetzt auch Samsung mit seiner Live-Übersetzungsfunktion Anrufinhalte in Echtzeit in eine andere Sprache. Dank eines integrierten Sprachmodells und optimierter Hardware erfolgen Aufzeichnung und Inhaltsverarbeitung direkt auf dem Gerät, um die Privatsphäre des Nutzers zu gewährleisten.
Darüber hinaus stellte Google auf der I/O 2022 die Live-Übersetzungsfunktion vor und präsentierte das erste Bild des in Entwicklung befindlichen Augmented-Reality-Brillenmodells. In Googles Video übersetzt das Gerät die Sprache und zeigt sie direkt vor den Augen des Nutzers an.
„Sie können in Echtzeit sehen, was ich sage, wie Untertitel“, erklärte ein Google-Sprecher. Im Video sind Googles AR-Brillen mit externen Lautsprechern zu sehen, die herkömmlichen modischen Brillen sehr ähnlich sehen.
Da Apple erst spät in den Markt eingestiegen ist, muss das Unternehmen die systembedingten Schwächen dieser Übersetzungsfunktion beheben. Insbesondere bei der Verwendung von Live Translate wird es Nutzern schwerfallen, den richtigen Zeitpunkt zum Sprechenbeginn und -ende für die KI-Übersetzung zu bestimmen.
Als CNET -Reporterin Lisa Eadicicco das System auf einem belebten Markt in Paris ausprobierte, fiel es ihr schwer, sich auf das Gespräch zu konzentrieren, da sie auf die Inhalte des Bildschirms achten musste. Schließlich kaufte sie die Waren auf altmodische Weise: Sie zeigte darauf, gestikulierte und beschrieb sie mit gebrochenem Französisch.
Anrufe im Namen des Nutzers annehmen oder entgegennehmen
Als Google 2021 das Pixel 6 und das Pixel 6 Pro vorstellte, kündigte das Unternehmen eine sehr nützliche neue Funktion namens „Halten für mich“ an. Ist diese Funktion aktiviert, erkennt die Pixel-KI, wenn jemand den Hörer abnimmt, und benachrichtigt den Nutzer anschließend, damit das Gespräch fortgesetzt werden kann.
Diese Funktion ist äußerst praktisch, da Nutzer so bequem andere Dinge erledigen können, ohne ständig zuhören zu müssen, ob der Gesprächspartner am anderen Ende der Leitung wieder am Gespräch teilnimmt. Sobald der Gesprächspartner wieder am Gespräch teilnimmt, benachrichtigt der virtuelle Assistent auf Pixel dies mit einem akustischen Signal.
![]() |
Die Funktion, die Anrufe im Namen des Nutzers annimmt oder entgegennimmt, wenn dieser besetzt ist, heißt Halteassistent. Foto: Apple. |
Das ist eine tolle Funktion, und viele Nutzer haben sich gewünscht, dass Apple sie auch für das iPhone anbietet. Dieser Wunsch ist nun in Erfüllung gegangen, als Apple eine ähnliche Version namens Hold Assist ankündigte.
Laut Apple können Nutzer ihr iPhone während der Warteschleife stummgeschaltet lassen und in der Zwischenzeit weiterarbeiten. Sobald ein Mitarbeiter verfügbar ist, wird der Nutzer benachrichtigt und kann zurückrufen.
Schließlich gibt es noch eine Funktion namens Google Call Screen, die früher nur bei Pixel-Modellen verfügbar war. Sie nutzt KI und fordert den Anrufer auf, seinen Namen und den Grund des Anrufs preiszugeben, bevor die Verbindung hergestellt wird.
Apple bietet nun eine ähnliche Funktion namens Anruferkennung an, die Nutzern helfen soll, Ablenkungen zu vermeiden. Ähnlich wie bei Googles Anruferkennung sammelt das System Informationen über den Anrufer und stellt die notwendigen Details bereit, damit der Nutzer entscheiden kann, ob er den Anruf annehmen soll oder nicht.
Sowohl die Haltefunktion, die Live-Übersetzung als auch die Anruferkennung sind nützliche Funktionen auf Android und wurden von vielen iPhone-Nutzern lange erwartet.
Laut PhoneArena -Reporter Alan Friedman verdeutlicht dieses Trio von KI-Funktionen den Unterschied zwischen Google und Apple in Bezug auf das jeweilige Betriebssystem.
Dementsprechend wird Android optimiert, um die Benutzerfreundlichkeit zu verbessern. Apple wartet mit der Einführung dieser nützlichen neuen Funktionen und wählt dann einen leicht ähnlichen Namen.
„Dennoch freue ich mich, dass Apple diese Funktionen zu iOS hinzufügt, und kann es kaum erwarten, sie zu nutzen“, kommentierte Friedman.
Quelle: https://znews.vn/apple-lai-hoc-android-post1559633.html












Kommentar (0)