Google hat sich bei seinem mobilen Betriebssystem ordentlich ins Zeug gelegt.
Ohne großes Aufsehen zu erregen, hat Google damit begonnen, Android 10 auszurollen. Wie berichtet, kommt das weltweit meistgenutzte mobile Betriebssystem dieses Jahr ohne einen Namenszusatz daher. Zunächst ist die neue Version nur für einige hauseigene Pixel-Geräte verfügbar. In den kommenden Wochen kommt Android 10 aber auch auf Smartphones und Tablets anderer Hersteller. Auf welche Neuheiten sich die Nutzer dabei besonders freuen dürfen, haben wir zusammengefasst.
>>>Nachlesen: Android 10: Neues Logo, keine Süßigkeit
Android 10: Neuerungen im Überblick
Dark Mode
Eine wesentliche Neuheit ist die Einführung des systemweiten Dark Mode. Dieser Dunkle Modus, der Augen und Akku gleichermaßen schont, ist ganz einfach über das Schnellwahlmenü aktivierbar, das man öffnet, in dem man am Display vom oberen Rand nach unten wischt. Dort findet man etwa auch Schnelleinstellungen für den Flugmodus, das Stummschalten, WLAN, Bluetooth, etc.
5G und Smart Reply
Android 10 ist auch bereits für den neuen Mobilfunkstandard 5G gerüstet. Dank ihm ist es erst möglich, dass künftig Live-Chats in Echtzeit übersetzt werden. Darüber hinaus verfügt das Betriebssystem künftig in allen Apps über die praktische Funktion "Smart Reply", die automatisch Kurzantworten in Chats vorschlägt bzw. ausführt.
Bessere Fotos
Zu den weiteren Neuerungen von Android 10 gehört auch ein direkter Zugang für Apps zu Tiefenschärfe-Einstellungen der Kamera. Das soll unter anderem für noch bessere Ergebnisse beim Bokeh-Effekt führen. Immer mehr Smartphones verfügen mittlerweile über drei oder mehr Objektive. Mit der neuen Funktion reagiert Google nun auf diesen Trend und gibt den Nutzern weitere Möglichkeiten für kreative Aufnahmen in die Hand.
Schneller Tippen
Die Google-Tastatur wurde ebenfalls verbessert. Sie soll noch bessere Textvorschläge erstellen, weniger Autokorrekturfehler machen und sich besser auf den jeweiligen Nutzer einstellen. Auch wenn es um Emojis, Gifs & Co. geht. Hier spielt KI natürlich ebenfalls eine wichtige Rolle.
Faltbare Smartphones
Eine weitere große Neuerungen wird zunächst nur wenigen Nutzern etwas bringen: die Unterstützung faltbarer Smartphones. Für die neuen Geräte, deren Displays sich auf Tablet-Größe auffalten lassen, bekommen die App-Entwickler mit Android 10 zusätzliche Software-Werkzeuge in die Hand. Dabei geht es vor allem darum, eine Anwendung beim Wechsel der Bildschirmgröße oder von Display zu Display weiterlaufen zu lassen. Die Smartphone-Hersteller machen es Google dabei nicht gerade leicht. Sie setzen nämlich auf zwei unterschiedliche Konzepte. So hat das Samsung Galaxy Fold, dessen zweite Markteinführung kurz bevorsteht , zwei Bildschirme: Der eine lässt sich wie ein Buch zu Tablet-Größe auffalten und ist in zusammengeklappten Zustand nicht sichtbar, während dann ein weiteres kleines Display auf der Außenseite die Smartphone-Funktionen übernimmt. Beim Huawei Mate X, dessen Start ebenfalls verschoben wurde, bleibt der Bildschirm beim Zusammenfalten auf der Außenseite und kann abwechselnd von beiden Seiten auf halber Größe genutzt werden. Android 10 kommt mit beiden Varianten klar.
Besserer Datenschutz
Auch beim Datenschutz gibt es Verbesserungen. So können die Android-10-Nutzer festlegen, dass eine App nur auf ihren Aufenthaltsort zugreifen kann, wenn sie genutzt wird. Bisher galt die erteilte Genehmigung beim Google Betriebssystem ohne Einschränkungen, so dass Apps grundsätzlich auch auf die GPS-Daten zugreifen konnten, wenn sie im Hintergrund aktiv waren. In diesem Punkt zieht Google endlich mit iOS gleich - bei den iPhones von Apple ist diese Beschränkung schon lange gang und gäbe.
Automatische Transkription
Eine besonders Lobenswerte Neuheit von Android 10 untermauert einmal mehr Googles großes Engagement für Menschen mit Beeinträchtigung. Dabei handelt es sich um die automatische Transkription. Weltweit gibt es über 466 Millionen gehörlose und hörbehinderte Menschen. Für sie sind Untertitel mehr als nur eine Annehmlichkeit – sie ermöglichen ihnen erst den Zugriff auf viele Inhalte. Google hat in den letzten Monaten sehr eng mit gehörlosen Menschen zusammengearbeitet, um eine Funktion zu entwickeln, die ihnen den Zugang zu digitalen Medien erleichtert: Einmal tippen genügt und die Automatische Transkription erstellt Untertitel für die Audiowiedergabe des eigenen Smartphones, ohne dabei WLAN oder Datenvolumen zu nutzen. Die Automatische Transkription funktioniert in Videos, Podcasts und Sprachnachrichten, in allen Apps und sogar bei eigenen Sprachaufnahmen. Sobald gesprochenes Wort erkannt wird, werden die Untertitel erstellt – alles direkt auf dem Gerät, die Texte bleiben dabei auf dem Smartphone.
Smartphone bewusster nutzen
Immer mehr Smartphone-Nutzer klagen darüber, dass sie zuviel Zeit mit dem Gerät verbringen. Deshalb bekommt Android 10 einen "Focus Mode". Ist dieser aktiviert, ist der Funktionsumfang stark eingeschränkt. Man kann etwa einstellen, dass man im Focus-Modus nur über eingehende Anrufe und E-Mails benachrichtigt wird. Alles andere bleibt außen vor.
KI und Google Assistant
Im Herbst 2019 wird Google auch die deutlich verbesserte Version des Assistant veröffentlichen. Beim Beim Alexa-, Siri- und Cortana-Konkurrenten gelang dem Internet-Konzern ein wichtiger Durchbruch. Google kann Spracherkennung jetzt auch lokal auf dem Smartphone laufen lassen. Bisher müssen Sprachassistenten (auch der Assistant) Aufnahmen zur Spracherkennung ins Netz schicken. Mit der lokalen Datenverarbeitung sichert sich Google einen Vorsprung gegenüber der Konkurrenz und kann auch einen Vorteil beim Datenschutz für sich reklamieren. Darüber hinaus wird der Assistant dadurch viel schneller. Die Assistenzsoftware reagiert ohne erkennbare Wartezeit auf viele, direkt hintereinander getätigte Sprachbefehle. Auch ist es nicht mehr nötig, vor jedem Kommando die Aktivierungsworte "Hey, Google" zu sagen. Das macht die neue Funktion „Durchgängige Unterhaltung" möglich.
Anfragen werden also quasi in Echtzeit verarbeitet - die Antworten werden bis zu 10-mal schneller geliefert. Um die neue lokale Funktionsweise umzusetzen, sei die nötige Softwarebasis von 100 Gigabyte auf 500 Megabyte geschrumpft worden. Insgesamt arbeite die Software zum maschinellen Lernen bei Google verstärkt direkt auf den Geräten der Nutzer, statt Rohdaten dafür auf Server des Konzerns zu schicken. Beim Start im Herbst 2019 gibt es aber eine Einschränkung. Zunächst ist sie nämlich nur auf den hauseigenen Pixel-Smartphones verfügbar.
Duplex jetzt auch im Web
Auf der I/O 2018 sorgte Google mit der Software Duplex, die beim Sprechen von einem Menschen nicht zu unterscheiden ist, für Aufsehen. Das Programm reservierte u.a. einen Tisch in einem Restaurant, ohne dass der Gesprächspartner merkte, mit einer Software zu sprechen. In den USA wurde Duplex für Android- und iOS-Geräte noch im Vorjahr freigeschaltet. Nun hat Google die auf Künstlicher Intelligenz basierende Funktion noch einmal aufgerüstet. Noch in diesem Jahr startet Duplex auch im Web. Dann kann man den Google Assistant auch nutzen, wenn man online etwas erledigen muss. Beispiel Online-Buchungen: Häufig muss man zuerst durch eine Reihe von Seiten navigieren, in verschiedenste Kästchen zoomen oder Ansichten vergrößern. Mit dem Sprachassistenten, angetrieben durch Duplex, können solche solche Aufgaben viel schneller erledigt werden, da die Formulare für die User automatisch ausgefüllt werden. Sagt man zum Beispiel einfach „Buch mir einen Mietwagen bei National für meinen nächsten Trip“, kann man den Rest dem Google Assistant überlassen. Er navigiert beispielsweise durch die Website und gibt Informationen basierend auf den persönichen Präferenzen ein, wie zum Beispiel Buchungsinformationen aus dem Gmail-Konto oder Zahlungsinformationen aus Chrome. Hier ist natürlich ein großes Vertrauen in Technik eine Grundvoraussetzung. Vorsichtige User werden die Buchung wohl lieber nach wie vor manuell durchführen.
Persönliche Präferenzen
Damit ein digitaler Assistant wirklich hilfreich ist, muss er seinen Nutzer verstehen und nachvollziehen können, welche Orte und Termine für ihn wirklich wichtig sind. In den kommenden Monaten startet Google deshalb eine neue Funktion mit der der Assistant den jeweiligen User immer besser verstehen soll. Dadurch soll man nicht nur natürlicher mit der Software sprechen können, sie hilft den Nutzern dann auch bei Anfragen wie „Ok Google, wie ist das Wetter bei Mama an diesem Wochenende?“ oder „Erinnere mich daran, eine Woche vor dem Geburtstag meiner Schwester Blumen zu bestellen“. Google versichert, dass man die persönlichen Daten auf dem aktualisierten Tab „Ich“ in den Einstellungen des Assistant jederzeit bearbeiten oder löschen kann.
Mit dem besseren Verständnis, kann der intelligente Helfer auch nützlichere Vorschläge machen. Im Sommer erscheint eine neue Funktion, die personalisierte Vorschläge für zum Beispiel Rezepte, Events und Podcasts liefert. Wenn der Nutzer also in der Vergangenheit nach mediterranen Rezepten gesucht hat, zeigt der Google Assistant in Anlehnung daran ebenfalls mediterrane Gerichte an, wenn man nach Ideen für das Abendessen fragt. Die Software agiert dabei kontextabhängig und bezieht zum Beispiel die Tageszeit für die Rezeptvorschläge mit ein, gibt also am Morgen Frühstücksrezepte und am Abend Vorschläge für das Abendessen.
Neuer Fahrmodus
Auch beim Autofahren soll der Google Assistant künftig noch nützlicher werden. Anfang des Jahres wurde er bereits in Google Maps integriert. In den nächsten Wochen wird er auch in die beliebte Navi-App Waze kommen. Auf der Keynote wurde nun ein völlig neuer Fahrmodus direkt im Google Assistant vorgestellt. Ziel ist es, dass Autofahrer alle wichtigen Dinge während der Fahrt mit ihrer Stimme erledigen können. Google hat nun ein neues Dashboard entwickelt, das es ermöglicht, die wichtigsten Funktionen wie Navigation, Nachrichten und Anrufe ausschließlich mit der Stimme zu bedienen. Der Fahrmodus liefert auch auf den jeweiligen Nutzer zugeschnittene Vorschläge. Wenn man also eine Reservierung für ein Abendessen im Kalender hat, erhält man einen Hinweis für den Weg zum Restaurant. Hat man zu Hause einen Podcast angefangen, kann man diesen im Auto genau dort weiterhören, wo er vorher aufgehört hat. Wenn man einen Anruf bekommt, teilt der Assistant dem Autofahrer mit, wer anruft und fragt nach, ob er rangehen will.
Um den Fahrmodus zu starten, reicht es, einfach zu sagen „Ok Google, lass uns fahren“. Der neue Modus wird diesen Sommer auf Android-Smartphones mit Google Assistant verfügbar sein.
Augmented Reality (AR)
Google-Suche
Neben dem Assistant hat Google auch die Suche und Google Lens ordentlich aufgerüstet. Mithilfe der Smartphone-Kamera, maschinellen Sehens und Augmented Reality (AR) können bestimmte Inhalte in der realen Umgebung abgebildet werden, was das Leben ebenfalls erleichtern kann.
Mit den neuen Funktionen der Google-Suche kann der Nutzer in Zukunft 3D-Objekte direkt aus der Suche in seinem Umfeld platzieren. So ist es nicht nur möglich, gewisse Dinge genauer zu betrachten – man bekommt außerdem ein besseres Gefühl für die eigentliche Form und Größe. Es ist zum Beispiel eine Sache, zu lesen, dass ein Weißer Hai bis zu fünfeinhalb Meter lang werden kann. Einen wirklichen Eindruck davon bekommt man aber erst, wenn man ihn dann in seiner tatsächlichen Größe vor sich sieht. Sucht man künftig in der Suche nach bestimmten Tieren, kann man einige direkt im Knowledge Panel in 3D und AR ansehen.
Google arbeitet in diesem Bereich mit Partnern zusammen, um auch deren Inhalte künftig in 3D in der Google-Suche darstellen zu können. Das Spektrum ist riesig. So kann es sich dabei um anatomische Modelle des menschlichen Körpers oder um ein neues Paar Sneaker handeln.
Google Lens
Google Lens zählt zu einer der beliebtesten Kamera-Funktionen überhaupt. Sie wurde bereits von einer Milliarde Menschen genutzt. Mit der Funktion kann man mehr über die Dinge in ihrer Umgebung zu erfahren. Hält man das Smartphone vor ein historisches Gebäude und aktiviert Lens, werden etwa Infos wie das Baujahr, die Größe, etc. eingeblendet. Nun wird Google Lens weiter aufgerüstet und so im Alltag noch praktischer.
Sitzt man etwa in einem Restaurant, und kann sich nicht entscheiden. Dann hebt Google Lens die besonders beliebten Gerichte auf der Speisekarte automatisch hervor. Wenn der User dann auf ein Gericht tippt, kann er anhand von Fotos und Rezensionen auf Google Maps sofort sehen, wie es tatsächlich aussieht – und wie es den anderen Gästen bisher geschmeckt hat.
Google Lens ist vor allem dann besonders hilfreich, wenn man im Urlaub ist und die Landessprache nicht versteht. In diesem Fall können die User einfach die Kamera auf den zu übersetzenden Text halten. Google Lens zeigt dann die Übersetzung direkt über dem Ausgangstext an – und das in mehr als 100 Sprachen. In Zukunft kann der angezeigte Text dann auch noch in der eigenen Sprache vorgelesen werden.