1. DEUTSCH
  2. News
  3. Stories
  4. 2021
  5. 05
  6. Gehirne für das autonome Fahren

Wir nutzen Cookies, um Ihnen die bestmögliche Nutzung unserer Webseite zu ermöglichen und unsere Kommunikation mit Ihnen zu verbessern. Wir berücksichtigen hierbei Ihre Präferenzen und verarbeiten Daten für Analytics und Personalisierung nur, wenn Sie uns durch Klicken auf "Zustimmen und weiter" Ihre Einwilligung geben oder über den Button "Cookie Präferenzen setzen" eine spezifische Auswahl festlegen. Sie können Ihre Einwilligung jederzeit mit Wirkung für die Zukunft widerrufen. Informationen zu den einzelnen verwendeten Cookies sowie die Widerrufsmöglichkeit finden Sie in unserer Datenschutzerklärung und in der Cookie-Richtlinie.

Zustimmen und weiter Cookie Präferenzen setzen

Gehirne für das autonome Fahren

Nvidia ist bekannt durch die Herstellung von Grafikkarten für PCs. Doch in den letzten Jahren wurde das Unternehmen ein wichtiger Partner für die Automobilindustrie. Porsche Engineering spricht mit Nvidia über deren Erfolgsgeschichte, warum sie im KI-Bereich führend sind und welche Vision sie für die Zukunft haben.

Autofahrer, die sich vom Navigationssystem leiten lassen, kennen das Problem: Liegen die Fahrspuren eng beieinander, kann das Navi nicht erkennen, auf welcher sich das Fahrzeug befindet. Dafür ist GPS nicht präzise genug – es kann die Position nur auf zwei bis zehn Meter genau bestimmen. Deutlich besser ist ein System, das Porsche Engineering derzeit entwickelt: Es nutzt Künstliche Intelligenz (KI), um aus den GPS-Daten eine exaktere Position zu errechnen. „Damit lässt sich zum Beispiel die Ideallinie auf einer Rennstrecke erkennen“, sagt Dr. Joachim Schaper, Leiter des Bereichs Artificial Intelligence and Big Data bei Porsche Engineering. Die nötigen Berechnungen können im Fahrzeug selbst ablaufen, und zwar in einem kompakten Rechner, der mit Grafikprozessoren (Graphics Processing Units, GPUs) bestückt ist. „Das bringt KI-Funktionalität ins Fahrzeug“, so Schaper.

Der Nvidia-Hauptsitz in Santa Clara: Rund 13.800 Menschen arbeiten für das Unternehmen aus Kalifornien.

Hergestellt wird die Hardware-Plattform von der Firma Nvidia aus dem kalifornischen Santa Clara. „Wer den Namen hört, denkt nicht unbedingt an den Automobilbereich“, so Schaper. Denn die meisten PC-Nutzer verbinden Nvidia vor allem mit Grafikkarten. Oder besser gesagt: besonders schnellen Grafikkarten, wie sie für Computerspiele benötigt werden. Dieser Ruf stammt noch aus den frühen 2000er-Jahren. Zu dieser Zeit kamen die ersten Games mit aufwendiger 3D-Grafik auf den Markt, und wer Spiele wie „Quake 3“ oder „Far Cry“ ohne Bildschirmruckeln spielen wollte, brauchte leistungsstarke Hardware. Unter Gamern kristallisierte sich schnell ein Favorit heraus: die Grafikkarte GeForce von Nvidia. Sie wurde zum Verkaufsschlager und katapultierte die 1993 gegründete Firma in die Spitzengruppe der Hardware-Hersteller. Zur Jahrtausendwende machten die Amerikaner schon drei Milliarden US-Dollar Umsatz.

KI-Forscher als neue Kundengruppe

Technologien für das autonome Fahren: Nvidias Orin-Chip soll autonome Fahrzeuge und Roboter steuern. Zudem trainiert das Unternehmen neuronale Netze in eigenen Rechenzentren.

Anfang der 2010er-Jahre bemerkte Nvidia, dass eine völlig neue Kundengruppe auf den Plan trat, die sich nicht für Computerspiele interessierte: KI-Forscher. In der Wissenschaft hatte sich nämlich herumgesprochen, dass Grafikprozessoren perfekt für aufwendige Berechnungen im Bereich des maschinellen Lernens geeignet sind. Soll zum Beispiel ein KI-Algorithmus trainiert werden, sind GPUs, die Rechenschritte hochgradig parallel abwickeln, klassischen sequenziellen Prozessoren (Central Processing Units, CPUs) deutlich überlegen und können die Rechenzeiten wesentlich verkürzen. So entwickelten sich Grafikprozessoren rasch zum Arbeitspferd der KI-Forschung.

Nvidia erkannte die Chance früher als die Konkurrenz und brachte 2015 die erste Hardware auf den Markt, die für KI optimiert war. Dabei konzentrierte sich das Unternehmen sofort auf den Automobilsektor: Unter dem Label Nvidia Drive wurde eine erste Rechenplattform für den Einsatz im Pkw vorgestellt. Die sogenannte PX 1 konnte Bilder von zwölf angeschlossenen Kameras verarbeiten und gleichzeitig Programme zur Kollisionsvermeidung oder Fahrerüberwachung ausführen. Sie hatte die Rechenleistung von über 100 Notebooks. Etliche Hersteller nutzten die Plattform, um die ersten Prototypen autonomer Fahrzeuge auf die Straße zu bringen.

Stetig wachsende Umsätze im Automobilsektor

Zunächst setzte Nvidia auf eine reine Hardware-Strategie und belieferte die OEMs mit Prozessoren. Derzeit hat das Geschäft im Automobilsektor zwei Säulen: Grafiksysteme für das Cockpit und Hardware für autonomes beziehungsweise computerunterstütztes Fahren. Die Umsätze im Automobilsektor wuchsen zwischen 2015 und 2020 stetig, sind aber bis heute im Vergleich zum Gesamtumsatz niedrig. Im letzten Jahr hat Nvidia im Automotive-Bereich 700 Millionen US-Dollar umgesetzt, was gut sechs Prozent des Gesamtumsatzes entspricht; allerdings steigen die Umsätze um neun Prozent pro Jahr. Jensen Huang, Gründer und CEO von Nvidia, sieht hier große Marktchancen. „Die Autos von morgen sind rollende KI-Supercomputer. Von den zahlreichen Steuergeräten werden nur zwei übrig bleiben: eines für das autonome Fahren und eines für die User Experience“, so der Vorstandschef.

Jensen Huang, Gründer und CEO von Nvidia.

Um noch stärker in der Automobilwelt Fuß zu fassen, hat Nvidia seine Strategie verändert: Das Unternehmen konzentriert sich nicht mehr nur auf Chips, sondern bietet ein komplettes Paket aus Hard- und Software an. „Der Kunde kann sich seine Lösung zusammenstellen und spart sich die Grundentwicklung“, erklärt Ralf Herrtwich, Senior Director Automotive Software von Nvidia. Ein OEM, der zum Beispiel ein teilautonomes Fahrzeug anbieten will, kann von Nvidia sowohl die Hardware zur Auswertung der Kamerabilder bekommen als auch neuronale Netze, die vortrainiert wurden – zum Beispiel eines, das selbstständig Verkehrsschilder erkennt. Anders als bei anderen Herstellern ist dieses Baukastensystem offen. „Alle Schnittstellen lassen sich einsehen. Der OEM kann das System so nach seinen Wünschen anpassen“, erklärt Herrtwich. Theoretisch kann ein Hersteller also vortrainierte neuronale Netze von Nvidia nutzen und diese dann mit Eigenentwicklungen kombinieren.

Nvidia-Produkte sind ein System-on-a-Chip

Ralf Herrtwich, Senior Director Automotive Software von Nvidia.

Durch diese Strategie der Offenheit will das US-amerikanische Unternehmen möglichst viele OEMs als Anwender gewinnen, was letztlich auch die Entwicklung der Produkte vorantreibt. „Wir können unsere Hardware am besten optimieren, wenn wir wissen, wie sie eingesetzt wird“, erklärt Herrtwich und gibt ein Beispiel: Die meisten Nvidia-Produkte sind ein System-on-a-Chip (SoC). Das heißt, ein Prozessor wird mit anderen elektronischen Komponenten auf einem Halbleiter zusammengefasst. Im Automobilbereich etwa kommen Chips mit eingebauten Videoeingängen zum Einsatz, an die externe Kameras angeschlossen werden. Doch wie viele Eingänge braucht man? Und wie muss die Netzwerkverbindung ausgelegt werden? Solche Fragen ließen sich nur im engen Kontakt mit den Anwendern klären, so Herrtwich. KI-Experte Schaper sieht das ähnlich: „Der Input von anderen OEMs ist wichtig.“ Entscheidend sei in der jetzigen Phase, die Entwicklungsprozesse gemeinsam zu beschleunigen.

Neben Hard- und Software bietet Nvidia eng kooperierenden OEMs auch Zugriff auf die eigene Infrastruktur an. So können die Hersteller daran mitarbeiten, neuronale Netze in Nvidia-Rechenzentren, in denen Tausende von GPUs parallel arbeiten, zu trainieren. Ein Selbstfahr-Algorithmus muss schließlich erst lernen, einen Fußgänger, einen Baum oder ein anderes Fahrzeug zu erkennen. Dafür wird er mit Millionen von Bildern aus dem realen Verkehr gefüttert, auf denen händisch die entsprechenden Objekte markiert wurden. Durch Trial-and-Error lernt der Algorithmus, sie zu identifizieren. Dieser Vorgang macht viel Arbeit (etwa das „Labeln“ der Objekte) und benötigt hohe Rechnerkapazitäten. Nvidia übernimmt beides. Automobilhersteller können so auf eine Künstliche Intelligenz zugreifen, die quasi schon einige Jahre die Schulbank gedrückt hat.

Drei Fragen an Ralf Herrtwich

Wann kommt Künstliche Intelligenz (KI) im Auto an?
Das ist sie schon, zum Beispiel im Cockpit. Viele Hersteller bieten Sprachsteuerung an, die auf KI basiert. Die Leistungsfähigkeit dieser Systeme hat in den letzten Jahren spürbar zugenommen. Daneben wird vom Fahrzeug zunehmend erwartet, dass es seine Umgebung wahrnimmt und passend reagiert, Stichwort: Assistenzsysteme. Auch hier spielt KI eine wachsende Rolle. Solche Anwendungen im Fahrzeug gehören zu den anspruchsvollsten überhaupt. Wir erwarten, dass dieser Bereich die ganze KI nach vorne bringt.

Wann kommt das autonome Fahren?
In örtlich begrenzten Gebieten werden Roboter-Fahrzeuge schon eingesetzt, vor allem an Orten, wo das Wetter gut ist. Allerdings sehen wir bis auf Weiteres den Hauptmarkt bei den regulären Fahrzeugen mit Unterstützungsfunktionen, also bei den Autonomie-Leveln 1 bis 3. Insgesamt werden die kommenden Jahre von einem Wettstreit solcher Systeme geprägt sein – also von der Frage, welches Hersteller-System die meisten Situationen meistern kann. Es geht weniger um den Anspruch, wirklich komplett selbststeuernd zu sein.

Wie verändert Künstliche Intelligenz das automobile Ökosystem?
Je wichtiger Software-Funktionen werden, desto stärker verändert sich die Rolle der Tier-1-Zulieferer. Ihre traditionell starke Bindung an die Hersteller wird schwächer. In Zukunft können wir uns eine Dreieckskonstellation vorstellen: Die OEMs arbeiten mit Technologieunternehmen wie Nvidia bei Prozessoren und Softwaremodulen zusammen, und der Tier 1 baut das Steuergerät. Einige OEMs legen heute schon Wert darauf, Softwarefunktionen selbst in der Hand zu behalten.

Warum Grafikprozessoren die besseren KI-Rechner sind

Grafikprozessoren sind darauf spezialisiert, geometrische Berechnungen durchzuführen: einen Körper auf dem Bildschirm zu rotieren, ihn zu vergrößern oder zu verkleinern. Die dafür nötigen Matrix- und Vektorberechnungen beherrschen GPUs (Graphics Processing Units) besonders gut. Das ist ein Vorteil bei der Entwicklung von neuronalen Netzen. Sie ähneln dem menschlichen Gehirn und bestehen aus mehreren Schichten, in denen Daten verarbeitet und an die nächste Schicht weitergereicht werden. Um sie zu trainieren, sind vor allem Matrixmultiplikationen nötig – also genau die Spezialität von GPUs.

Darüber hinaus besitzen diese Rechnerarchitekturen sehr viel Speicher, um Zwischenergebnisse und Modelle effizient abzulegen. Die dritte Stärke von GPUs liegt darin, dass sie mehrere Datenblöcke gleichzeitig verarbeiten können. Die Prozessoren enthalten Tausende sogenannter Shader-Einheiten, von denen jede einzelne recht simpel und langsam ist. In der Masse jedoch können diese Rechenwerke parallelisierbare Aufgaben wesentlich schneller abarbeiten als herkömmliche Prozessoren (Central Processing Units, CPUs). Beim Training von neuronalen Netzen etwa senken Grafikprozessoren den Zeitaufwand um bis zu 90 Prozent.

Wichtiger Hinweis

Wenn Sie auf diesen Link gehen, verlassen Sie die Seiten der Volkswagen AG. Die Volkswagen AG macht sich die durch Links erreichbaren Seiten Dritter nicht zu eigen und ist für deren Inhalte nicht verantwortlich. Volkswagen hat keinen Einfluss darauf, welche Daten auf dieser Seite von Ihnen erhoben, gespeichert oder verarbeitet werden. Nähere Informationen können Sie hierzu in der Datenschutzerklärung des Anbieters der externen Webseite finden.

Weiter zur Seite Abbrechen