1. DEUTSCH
  2. News
  3. Stories
  4. 2019
  5. 04
  6. Wenn Dich Dein Auto sanft massiert

Wir setzen Cookies (eigene und von Drittanbietern) ein, um Ihnen die Nutzung unserer Webseiten zu erleichtern und Ihnen Werbemitteilungen im Einklang mit Ihren Browser-Einstellungen anzuzeigen. Mit der weiteren Nutzung unserer Webseiten sind Sie mit dem Einsatz der Cookies einverstanden. Weitere Informationen zu Cookies und Hinweise, wie Sie die Cookie-Einstellungen Ihres Browsers ändern können, entnehmen Sie bitte unserer Cookie-Richtlinie. Akzeptieren

Wenn Dich Dein Auto sanft massiert

Das Auto der Zukunft spricht unsere Sinne optimal an. Die Experten der Volkswagen Elektronikentwicklung arbeiten daran, dass dieses Ziel Wirklichkeit wird. Teil zwei unserer Serie zu Trends der User Experience.

Stephanie hat nicht allzu gut geschlafen, als sie sich an diesem Morgen auf den Weg zur Arbeit macht. Das bemerkt auch ihr Auto, das mit den Gesundheitsdaten aus Stephanies Armbanduhr verbunden ist. „Soll ich Dich wach machen?“, fragt ihr persönlicher Assistent. Stephanie bestätigt und lehnt sich zurück. Der Assistent stellt die Innenbeleuchtung im Cockpit und in den Türen auf ein helles Tageslicht. Aus den Lautsprechern kommt Stephanies Lieblingssong. Der Autopilot scannt die Umgebung auf andere Verkehrsteilnehmer. Niemand in Sicht. Die Fahrt beginnt.

Stephanie – so heißt die fiktive Autofahrerin, die die Experten aus der Elektronikentwicklung von Volkswagen bei ihrer Arbeit unterstützt. Sie hilft ihnen, sich die Bedürfnisse der Kunden von morgen und übermorgen anschaulich vorzustellen. Bis die Ergebnisse der heutigen Entwicklungsarbeit in Serie gehen, wird es noch einige Jahre dauern. Klar ist bereits: Autofahrerinnen wie Stephanie werden Funktionen nutzen können, die die Fahrt entspannter, unterhaltsamer und produktiver machen als heute. Kurzum: Sie können auf die Unterstützung ihres Fahrzeugs zählen.

Das Fahrzeug weiß, wie es dem Menschen geht

Zu den Expertinnen aus der Entwicklung gehört Melisa Erdogan. Sie sagt: „Wir arbeiten daran, dass sich künftige Fahrzeuge auf die Stimmung und die körperliche Verfassung des Menschen optimal einstellen.“ Möglich wird das beispielsweise, indem Smartwatches oder Bewegungstracker Informationen zu Puls und Aktivitätsdaten an eine künstliche Intelligenz im Auto übertragen. „Das Fahrzeug kann anhand der Daten abschätzen, in welchem Zustand sich der Fahrer befindet, und ihn entsprechend aktivieren oder entspannen“, sagt Erdogan. Ist der Nutzer einverstanden, beginnt der persönliche Assistent beispielweise ein Aktivierungsprogramm, bei dem neben der Lieblingsmusik eine Massagefunktion im Sitz gestartet wird. Zusätzlich sorgt helles, aber angenehmes Licht dafür, dass der Insasse spürbar aktiviert wird.

„Natürlich entscheidet der Kunde selbst, ob er Gesundheitsdaten aus der Smartwatch mit dem Auto teilt. Man kann den Aktivierungsmodus auch manuell einstellen“, sagt Erdogan. 
Was nach Wellness klingt, könnte beim automatisierten Fahren Wirklichkeit werden: Der Mensch kann zwar jederzeit eingreifen, er kann das Steuer aber auch dem Auto überlassen. Das eröffnet viele Möglichkeiten. Denkbar ist laut Melisa Erdogan beispielsweise, während der Fahrt Filme zu gucken. „Wir testen bereits, wie sich Streaming-Portale in unsere künftigen Autos integrieren lassen“, sagt die Entwicklerin. Auch Social-Media-Nachrichten und E-Mails werden Nutzer in Zukunft von unterwegs schreiben können.

Nina Jellentrup und Jürgen Stietz diskutieren eine neue Idee. „Unser Ziel ist es, unterschiedliche Signale des Autos optimal aufeinander abzustimmen“, sagt Stietz

Entwickler Jürgen Stietz arbeitet daran, dass Autofahrern in Zukunft sogar ein kleines Orchester zur Verfügung steht. Allerdings hat das nichts mit Musik zu tun – sondern damit, wie Informationen die menschlichen Sinne bestmöglich erreichen. „Unser Ziel ist es, unterschiedliche Signale des Autos optimal aufeinander abzustimmen. Sie sollen sich ergänzen wie die Mitglieder einer guten Band“, sagt Stietz. Beispiel Navigation: Anzeigen auf dem Display und Sprachhinweise sollen so zusammenspielen, dass ein menschlicher Fahrer die Informationen zum idealen Zeitpunkt wahrnehmen und verarbeiten kann. Kommt die Stimme beispielsweise von links und sagt „abbiegen“, dann gibt sie damit zugleich die neue Fahrtrichtung an. „Gerade für Menschen mit einer Rechts-Links-Schwäche wäre das ideal. Aber auch andere Autofahrer würden profitieren, weil sie die Informationen leichter aufnehmen können“, sagt Stietz.

Bei der Entwicklungsarbeit: Nina Jellentrup und Jürgen Stietz (links) mit ihren Kollegen Jens Feldhaus (Mitte) und Vitalij Sadovitch (rechts)

Optimale Hinweise an den Fahrer sind nicht nur eine Frage des Komforts, sondern auch der Sicherheit. Entwicklerin Nina Jellentrup beschäftigt sich deshalb mit so genannten Augmented-Reality-Head-up-Displays, die sich vor dem Fahrer in der Windschutzscheibe befinden. Einer der Vorteile: Navigationspfeile könnten künftig genau dort angezeigt werden, wo der Weg tatsächlich verläuft. „Dadurch muss der Fahrer nicht mehr von der Straße auf das Display und wieder zurück gucken. Er kann sich ganz auf den Verkehr konzentrieren“, sagt Jellentrup. Steuert das Fahrzeug selbstständig, sind andere Funktionen denkbar. „Nehmen wir an, wir sind im Urlaub in Paris und das Auto fährt auf den Eiffelturm zu. Dann könnte das Head-up-Display zusätzliche Informationen für Touristen anzeigen“, so Nina Jellentrup.

Zurück in den Alltag. Stephanie hat Feierabend und möchte nach Hause. Sie ist müde von einem langen Tag und will entspannen. „Auch dabei könnte ihr das Auto künftig helfen“, sagt Entwicklerin Melisa Erdogan. Falls Stephanie einverstanden ist, stellt ihr Assistent die Beleuchtung auf dem Heimweg auf einen warmen Gelbton ein. Ein bisschen wie ein Sonnenuntergang. Statt dem rockigen Lieblingssong am Morgen gibt es jetzt Klassik zur Erholung – und dazu eine besonders sanfte Massage. Entspannt kommt Stephanie zuhause an.

Das könnte Sie auch interessieren

44 Milliarden für die Mobilität von morgen