1. DEUTSCH
  2. News
  3. Stories
  4. 2019
  5. 04
  6. Wenn Dein Auto zum Reiseführer wird

Wir setzen Cookies (eigene und von Drittanbietern) ein, um Ihnen die Nutzung unserer Webseiten zu erleichtern und Ihnen Werbemitteilungen im Einklang mit Ihren Browser-Einstellungen anzuzeigen. Mit der weiteren Nutzung unserer Webseiten sind Sie mit dem Einsatz der Cookies einverstanden. Weitere Informationen zu Cookies und Hinweise, wie Sie die Cookie-Einstellungen Ihres Browsers ändern können, entnehmen Sie bitte unserer Cookie-Richtlinie. Akzeptieren

Wenn Dein Auto zum Reiseführer wird

Das Auto der Zukunft versteht uns: Es reagiert auf unsere Sprache und unsere Gesten. Gibt es Probleme, bekommen wir den richtigen Tipp zur richtigen Zeit. Die Experten der Volkswagen Elektronikentwicklung arbeiten daran, dass dieses Ziel Wirklichkeit wird. Teil drei unserer Serie zu Trends der User Experience.

Noch schnell die kleine Tasche im Kofferraum verstauen – dann ist alles fertig für den Wochenend-Besuch bei der besten Freundin in Berlin. Stephanie sieht, wie sich die Heckklappe schließt. Sie steigt ins Auto und lehnt sich an. Ihr Sitz fährt in eine entspannte Reiseposition zurück. Mit ihrem Zeigefinger deutet sie auf das Display und wischt nach rechts, bis ihre Lieblingsserie erscheint. „Starten“, sagt Stephanie – die Unterhaltung ist gesichert. „Deine Fahrt wird heute ungefähr drei Stunden dauern. Sollen wir losfahren?“, fragt der persönliche Assistent. „Ja, bitte!“, antwortet Stephanie.

Entwicklerin Astrid Kassner arbeitet daran, dass künftige Autos unsere Sprache und Gesten verstehen.

Automatisiertes Fahren und Vernetzung werden in Zukunft dafür sorgen, dass sich das Unterhaltungsprogramm auf unseren Wochenendausflügen grundlegend verändert. Doch nicht nur das: In der Elektronikentwicklung von Volkswagen arbeiten die Experten daran, dass unsere Autos dank künstlicher Intelligenz zu persönlichen Begleitern werden, die unsere Bedürfnisse verstehen. Stephanie, die ihre Freundin in Berlin besucht, dient den Entwicklern dabei als fiktive Testperson. In wenigen Jahren sollen die neuen Funktionen Kunden aus Fleisch und Blut zur Verfügung stehen.

Astrid Kassner gehört im Entwicklerteam zu den Expertinnen für Sprach- und Gestensteuerung. Ihr Ziel: Künftige Fahrzeuge sollen schon einen kleinen Fingerzeig als Wunsch verstehen – und ihn erfüllen. Besonders wichtig werde dies sein, wenn sich der Mensch in einem selbstfahrenden Auto nicht mehr ums Lenken kümmern muss, sagt Kassner. Denn: „Wir werden uns zurücklehnen und das Cockpit nicht mehr mit den Armen erreichen können. Deshalb entwickeln wir Sprachbefehle und Gesten als Ergänzung zur Touch-Bedienung über das Display.“

Infrarotkamera erfasst die Gesten

Stefan Henze ist Experte für guten Rat zur richtigen Zeit. Er sagt: „Wir wollen den Fahrer nicht mit ständigen Tipps nerven.“

Schon heute steuert die Entwicklerin beispielsweise die Innenbeleuchtung ihres Cockpit-Modells mühelos mit der rechten Hand und wenigen Worten. Mit wischenden Bewegungen navigiert sie zwischen Streaming-Portalen und Nachrichtenangeboten, ohne das Display zu berühren. In Tests mit Probanden haben die Entwickler gute Erfahrungen gemacht. „Viele brauchen nur wenige Minuten, um sich an das Bedienkonzept zu gewöhnen“, sagt Astrid Kassner. „Das hat sicherlich damit zu tun, dass wir ähnliche Gesten von unseren Smartphones kennen.“

Technisch funktioniert die Gestensteuerung über eine Infrarotkamera, die die Handbewegungen des Passagiers erfasst. „Die Kamera misst permanent, wie lange die unsichtbaren Infrarotstrahlen zur Hand des Menschen und wieder zurück brauchen. Daraus lässt sich die Position und die Bewegung der Hand bestimmen“, erläutert Kassner.

Die Autos von morgen sollen allerdings nicht nur unsere Sprache und unsere Gesten verstehen, sondern uns auch die richtigen Tipps zur richtigen Zeit geben. Daran arbeitet Entwickler Stefan Henze. Gerät das Auto beispielsweise in dichten Verkehr, dann könnte es einem menschlichen Fahrer die Distanzregelung per Adaptive Cruise Control (ACC) empfehlen, die automatisch den Abstand zum Vordermann hält. „Das Besondere ist, dass das Auto ACC genau dann anbietet, wenn der Fahrer die Funktion tatsächlich gebrauchen kann“, sagt Stefan Henze. Auf Wunsch erklärt das Auto dem Menschen, was unter ACC zu verstehen ist. Ist der Kunde interessiert, kann er die Funktion per Sprachbefehl aktivieren.

Der Fahrer hat die Wahl

Ein Fingerzeig genügt – auf Wunsch soll das Auto künftig Sehenswürdigkeiten entlang der Strecke erklären. Entwicklerin Astrid Kassner demonstriert es.

Die größte Herausforderung bei solchen Empfehlungen sei die Dosierung, sagt Stefan Henze. „Wir wollen den Fahrer nicht mit ständigen Tipps nerven.“ Um den richtigen Hinweis zur richtigen Zeit zu geben, werde die künstliche Intelligenz künftiger Autos Fahrzeugdaten wie Geschwindigkeit oder GPS-Position auswerten, erklärt der Entwickler. „Nur wenn längerer Stillstand droht, kommt die Empfehlung für das ACC.“ Ein weiterer Vorteil ist die Flexibilität: Im Auto von morgen soll der Fahrer die Wahl haben, ob er eine Funktion kaufen oder nur für eine begrenzte Zeit nutzen will. Henze: „Nehmen wir an, ich fahre nur einmal im Jahr im Urlaub eine lange Strecke. Dann abonniere ich den Stauassistenten eben nur für diesen Zeitraum.“

Am Ziel angekommen, könnte das Auto in Zukunft zum Reiseführer werden – vor allem dann, wenn es das Fahren übernimmt, während sich der Mensch in Ruhe umsieht. Um solche Funktionen zu entwickeln, hat Expertin Astrid Kassner ein Foto aus Berlin an die Wand gehängt. Sie setzt sich in ihr Cockpit-Modell, zeigt mit dem Finger auf das Bild und fragt: „Was ist das?“. Antwort ihres Autos: „Du siehst den Französischen Dom. Er wurde vor mehr als 200 Jahren gebaut und ist eine beliebte Sehenswürdigkeit. Soll ich anhalten, damit Du ihn Dir aus der Nähe ansehen kannst?“ Kundinnen wie Stephanie sollen in Zukunft einfach „Ja“ sagen können.