Immersive View

Dieses Google-Maps-Feature kommt jetzt aufs iPhone

Seit 2002 schreibt Thomas Hartmann als freier Autor Artikel für die Macwelt. Schwerpunkte sind News über aktuelle Mac-Nachrichten und neue Programme sowie Recherchen zu Hintergrundthemen. Gern sieht er sich neuere Bildbearbeitungsprogramme unterhalb der Photoshop-Ebene an und berichtet regelmäßig über Spiele, die auf der Mac-Plattform erscheinen. Auch kleinere Tests von Mac-Programmen gehören zu seinem Repertoire. Dass er auch zu anderen Plattformen eine Affinität hat, zeigt seine frühere Windows-Kolumne auf Macwelt.de. Und um sich auch auf anderen mobilen Betriebssystemen auszukennen, nutzt er neben seinem iPad ein Android-Smartphone.
Die immersive Ansicht will Usern das Gefühl geben, direkt vor Ort zu sein. Außerdem soll die Dynamic Island auf dem iPhone 14 Pro unterstützt werden.
Googles Immersive View ist praktisch, wenn auch besser für Datenbrillen geeignet.
Googles Immersive View ist praktisch, wenn auch besser für Datenbrillen geeignet.
Foto: Google

Die immersive Ansicht ("Immersive View") von Google ist so etwas wie das nächste große Ding für seine Karten-App Maps - denn hier verbinden sich künstliche Intelligenz und Maschinen-Technologie, um ein eindrucksvolles Bild von Städten, Straßen und sogar Innenansichten bestimmter Gebäude nahtlos auf die Bildschirme zu bringen.

Dies berichtet Google zusammenfassend im Firmenblog. Die neue Funktion fügt demnach Milliarden von Streetview- und Luftbildern zusammen, um ein digitales Modell der Welt zu erstellen. Außerdem werden Informationen über das digitale Modell gelegt, wie etwa Details über das Wetter, den Verkehr und die Auslastung eines Ortes. So lässt sich mit einem einfachen Schieberegler über dem Bild erwarteter Regen einblenden oder voraussichtliche Besuchszahlen anzeigen.

Auch Museen oder Restaurants in der Nähe tauchen auf, inklusive einer visuellen Fahrt in die Räume hinein, wenn dies bereits unterstützt ist. Für die immersiven Ansichten werden sogenannte neuronale Strahlungsfelder (NeRF) eingesetzt. Dies ist eine fortschrittliche KI-Technik, die gewöhnliche Bilder in 3D-Darstellungen umwandelt. Mit NeRF kann Google nach eigener Auskunft den gesamten Kontext eines Ortes reproduzieren, darunter Beleuchtung, Textur von Materialien und Ansichten vom Hintergrund.

Immersiv checken, ob eine Bar für ein Date passt

So lasse sich erkennen, ob die stimmungsvolle Beleuchtung einer Bar die richtige Atmosphäre für ein Date bietet oder ob die Aussicht in einem Café der ideale Ort für ein Mittagessen mit Freunden wäre. Immersive View wird ab sofort in London, Los Angeles, New York, San Francisco und Tokio eingeführt. In den kommenden Monaten soll es für noch mehr Städte freigeschaltet werden, unter anderem in Amsterdam, Dublin, Florenz und Venedig.

Dazu kommt das Erkunden und Navigieren mit AR, sowohl drinnen wie draußen. "Search with Live View" nutzt demnach KI und Augmented Reality. Damit soll man leichter Dinge in der Umgebung finden, wie Geldautomaten, Restaurants, Parks und Bahnhöfe, indem man einfach auf der Straße vor Ort sein Mobiltelefon hochhebt. Die App zeigt dann Informationen an wie wann ein Ort geöffnet ist, ob er gerade besetzt ist und wie gut er bewertet wurde. Auch diese Funktion wurde zunächst in den oben genannten Städten freigeschaltet.

Navigation auch in komplexen Flughäfen

Eine besondere Unterstützung soll Augmented Reality mit Google Maps sein, wenn man sich an kompelxen Orten wie einem unbekannten Flughafen zurechtfinden muss. Bereits im Jahr 2021 hat Google dafür "Indoor Live View" in den USA, Zürich und Tokio eingeführt. Die Funktion verwendet AR-gestützte Pfeile, um die korrekte Richtung zu zeigen, damit man schnell und sicher die nächsten Toiletten, Lounges, Taxistände, Autovermietungen und vieles mehr finden kann, so Google. In den kommenden Monaten soll Live View in mehr als 1.000 neuen Flughäfen, Bahnhöfen und Einkaufszentren in Barcelona, Berlin, Frankfurt, London, Madrid, Melbourne, Paris, Prag, São Paulo, Singapur, Sydney und Taipeh zum Einsatz kommen.

Speziell E-Autos mit "Google built-in" erhalten ebenfalls neue Google-Maps-Funktionen. So lassen sich damit Ladestopps auch bei kurzen Routen hinzufügen, indem Google allgemein für alle Strecken Empfehlungen zum Laden gibt.

Unterstützung von Live Activities und Dynamic Island

Und schließlich soll man eine Wegbeschreibung auf einen Blick erhalten, unabhängig davon, welches Verkehrsmittel man benutzt - ob zu Fuß, mit dem Fahrrad oder mit öffentlichen Verkehrsmitteln. Mit der neuen übersichtlichen Wegbeschreibung könne man seine Reise direkt von der Routenübersicht oder dem Sperrbildschirm aus verfolgen und sieht aktualisierte Ankunftszeiten und weiß, wo als nächstes abzubiegen ist. Diese Informationen sind zwar nicht an sich neu, sie waren aber bisher nur sichtbar, wenn man sein Smartphone entsperrte, die App öffnete und den umfassenden Navigationsmodus verwendete. Entscheidet man sich für einen anderen Weg, aktualisiert die Funktion die Route automatisch, verspricht Google. Diese übersichtlichen Wegbeschreibungen sollen in den kommenden Monaten weltweit für Android und iOS eingeführt und werden auch mit Live-Aktivitäten unter iOS 16.1 und höher kompatibel sein.

Spannend besonders für iPhone-User ist, dass nach einem Bericht von Macrumors mit Live Activities auch die Dynamic Island ab dem iPhone 14 Pro unterstützt werden soll. (Macwelt)

Zur Startseite