Wie Google mit Gemini Android-Apps steuern und KI-Assistenz auf die nächste Stufe heben will

Google bereitet sich darauf vor, die Fähigkeiten seines KI-Assistenten Gemini unter Android erheblich zu erweitern und ihm möglicherweise die direkte Steuerung von Apps auf den Telefonen der Nutzer zu ermöglichen. Dies geht aus Berichten hervor, die auf einer Analyse einer aktuellen Beta-Version der Google-App basieren.

Dieser Schritt wäre ein wichtiger Schritt in Richtung der so genannten agentenbasierten KI – künstliche Intelligenzsysteme, die nicht nur Fragen beantworten, sondern auch Aktionen im Namen des Nutzers durchführen können.

Vom Assistenten zum digitalen Agenten

Wie Android Police berichtet, hat Google bereits mit KI-gestützter Automatisierung experimentiert. Kürzlich hat Google in Chrome eine Funktion zum automatischen Durchsuchen für Nutzer der kostenpflichtigen KI-Stufen eingeführt, die es dem Browser ermöglicht, Aufgaben selbstständig zu erledigen.

Jetzt scheint eine ähnliche Funktion über Gemini auch für Android verfügbar zu sein. Laut einem Teardown der Google App Beta-Version 17.4 von 9to5Google würde die Funktion – intern unter dem Codenamen “bonobo ” bekannt – Gemini in die Lage versetzen, durch Bildschirmautomatisierung mit Apps zu interagieren.

In der Praxis könnte dies bedeuten, dass Nutzer Gemini bitten können, eine Fahrt zu buchen, Essen zu bestellen oder andere Routineaufgaben zu erledigen, ohne einzelne Apps manuell zu öffnen.

Begrenzter Rollout und App-Unterstützung

Es wird erwartet, dass Gemini zumindest anfänglich nur mit einer begrenzten Anzahl von Apps funktioniert. Das liegt vor allem daran, dass sich die Schnittstellen von Apps häufig ändern, was die Automatisierung komplexer und fehleranfälliger macht.

Die frühe Unterstützung wird sich wahrscheinlich auf Google-Apps von Erstanbietern sowie auf eine kleine Anzahl beliebter Drittanbieterdienste wie Ride-Hailing oder Essenslieferdienste konzentrieren.

Die Funktion wird voraussichtlich auch Android 16 QPR3 voraussetzen, da Google in dieser Version bereits eine grundlegende Unterstützung auf Systemebene für die Bildschirmautomatisierung eingeführt hat.

Benutzer haben weiterhin die Kontrolle

Google betont, dass die Nutzer die volle Kontrolle behalten, während Gemini Aufgaben für sie ausführt. Die Nutzer können die Aktionen jederzeit stoppen oder übernehmen.

Allerdings wirft diese Funktion auch Fragen zum Datenschutz auf. Laut Informationen, die im Code der App gefunden wurden, können Screenshots, die während der Interaktion von Gemini mit Apps aufgenommen werden, von geschulten menschlichen Prüfern überprüft werden, um die Google-Dienste zu verbessern – vorausgesetzt, der Nutzer hat die Aktivitätsverfolgung aktiviert.

Google plant außerdem, die Nutzer davor zu warnen, sensible Zahlungsinformationen direkt in Gemini-Chats einzugeben und die Automatisierungsfunktionen in Notfällen nicht zu verwenden.

Wer wird Zugang erhalten?

Google hat zwar noch nicht offiziell die Preise oder die Verfügbarkeit bestätigt, aber es wird erwartet, dass die neuen Funktionen zumindest in der Anfangsphase auf kostenpflichtige Stufen wie Gemini Pro oder Ultra beschränkt sein werden.

Es wird allgemein erwartet, dass das Unternehmen die Funktion in Form einer Beta-Version zusammen mit Android 16 QPR3 vorstellt, möglicherweise schon im März.

Warum dies wichtig ist

Wenn Gemini wie geplant implementiert wird, würde die Fähigkeit von Gemini, Apps zu steuern, einen bedeutenden Wandel in der Art und Weise darstellen, wie Menschen mit Smartphones interagieren, weg von der manuellen App-Nutzung hin zur KI-gesteuerten Ausführung von Aufgaben.

Für die Nutzer könnte dies schnellere und bequemere Interaktionen im Alltag bedeuten. Für Entwickler und Regulierungsbehörden könnte dies auch neue Debatten über Automatisierung, Datenschutz und Kontrolle im Zeitalter zunehmend autonomer KI-Systeme auslösen.

Neueste Entwicklungen bei Google Gemini AI

Googles Gemini AI hat Anfang 2026 mit strategischen Expansionen in Verbraucher-Ökosysteme und verbesserten Browser-Integrationen für Schlagzeilen gesorgt. Wichtige Ankündigungen unterstreichen die wachsende Rolle der KI in der Alltagstechnologie, von Sprachassistenten bis hin zum Webbrowsing.

Partnerschaft mit Apple für die Überarbeitung von Siri

Im Rahmen einer mehrjährigen Zusammenarbeit hat sich Apple für Gemini-Modelle entschieden, um die nächste Generation von Siri zu entwickeln, wie CNBC berichtet. Dieser Schritt nutzt die fortschrittlichen Fähigkeiten von Gemini, um Apples KI-Assistenten, der hinter der Konkurrenz zurückgeblieben ist, wiederzubeleben. Die Integration verspricht intelligentere, kontextbezogenere Antworten und steigert die Marktreichweite von Gemini über iOS-Geräte.

Chrome Browser KI Upgrades

Laut 9to5google.com werden die auf Gemini 3 basierenden Funktionen am 28. Januar 2026 eingeführt. Dazu gehören eine Multitasking-Seitenleiste, eine engere Synchronisierung von Google-Apps und eine innovative Bildbearbeitung über Nano Banana-Tools. Darüber hinaus wird Gemini im Laufe des Jahres 2026 den Google Assistant auf Android-Geräten vollständig ersetzen und die Sprachinteraktion auf allen Plattformen vereinfachen. Diese Updates ermöglichen die proaktive Bearbeitung von Aufgaben, wie z.B. automatische Recherche und Personalisierung.

Breiteres Ökosystem Momentum

Anfang 2025 stellte Google Gemini 2.5 mit “Computer Use” für die autonome Steuerung von Apps und Browsern vor und ebnete damit den Weg für agentenbasierte KI. Ungarische Medien wie Hir36 verfolgen diese Entwicklungen im Minutentakt und spiegeln damit die weltweite Begeisterung in Europa wider. Während der Wettbewerb um KI immer härter wird, positioniert sich Gemini mit seinem geräteübergreifenden Vorstoß als vielseitiges Kraftpaket.

Leave a Reply

Your email address will not be published. Required fields are marked *