Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

«Unsere Prozessoren verhelfen zu grosser Leistungssteigerung»

Jim McHugh ist Marketingverantwortlicher beim Grafikkarten-Spezialisten.

Herr McHugh, eigentlich ist Nvidia für Grafikkarten bekannt. Was sind neue Anwendungsgebiete? - Die Grafikprozessoren, GPU, verwenden die gleiche Architektur in verschiedenen Feldern. Dazu gehören nicht nur Computerspiele, sondern auch selbstfahrende Autos oder maschinelles Lernen. Der zentrale Prozessor, CPU, funktioniert gut für aufeinanderfolgende Rechenschritte. GPU sind dagegen besser für parallele Aufgaben. Nun wird realisiert, dass man grosse Leistungsgewinne erhält, wenn man den CPU mit GPU erweitert.

Was musste sich ändern, dass GPU nun als so attraktiv gelten? - Das hängt mit dem Ende des Moore’schen Gesetzes zusammen, also dass sich die Zahl von Transistoren auf der Fläche eines Chips sich alle zwei Jahre verdoppelt. Über das vergangene Jahrzehnt ist die Rechenkraft je Watt langsamer gewachsen. Damit konnten die Leistungsvorteile von GPU von Nvidia bei parallelen Prozessen über die letzten Jahre stark zunehmen. Der Zuwachs ist deutlich schneller als das Moore’sche Gesetz – manche nennen es schon das Moore’sche Gesetz im Quadrat.

Was ist die Verbindung zwischen Nvidia und künstlicher Intelligenz (KI) und maschinellem Lernen? - Das maschinelle Lernen erhielt 2012 einen Schub. Der Forscher Alex Krizhevky verwendete unsere Gaming-GPU, um sein Deep-Learning-Modell in einem Wettbewerb zur Bilderkennung antreten zu lassen. Es war viel schneller als die anderen. Das Ergebnis hat die Industrie geschockt und die Aufmerksamkeit vieler Forscher auf sich gezogen.

Und warum braucht es parallele Rechenkraft für KI-Modelle? - Ein neuronales Netz ist dem Neuron eines menschlichen Gehirns nachempfunden. Man verbindet diese künstlichen Neuronen und gewichtet die Verbindungen. In dem die Gewichte angepasst werden, können die Modelle lernen und genauere Ergebnisse hervorbringen. Die Optimierung ist sehr komplex und braucht sehr viele parallele Rechenschritte. Für tiefere – also vielstufige – neuronale Netze sind die Berechnungen so komplex, dass man sie mit traditionellen Prozessoren nicht ausführen kann. Mit GPU sind nun viel grössere, tiefere neuronale Netze möglich.

Wie sieht es mit der Konkurrenz, etwa Intel, in diesem Bereich aus? - Die Angebote der Konkurrenz für den Kunden sind noch unklar. Es braucht ja nicht nur den Prozessor, sondern ein ganzes Ökosystem an Software. Wir beschleunigen momentan jede grosse Plattform für Deep Learning. Der echte Test einer Lösung ist, wie viele Leute die Technologie im echten Leben verwenden. Und bisher sind wir mit der Verbreitung und den Ergebnissen beim Einsatz beim Kunden sehr zufrieden.

Sie haben selbstfahrende Autos erwähnt. Ist Tesla einer Ihrer Kunden? - Ja, Nvidia arbeitet mit mehr als 225 Unternehmen im Umfeld der Autoindustrie zusammen. Dazu gehören Autobauer, grosse Zulieferer und Start-ups. Manche sind Kunden, aber andere wie Volkswagen strategische Partner. Tesla ist tatsächlich eine Technologiefirma und setzt auf die beste Technologie. In selbstfahrenden Autos arbeiten viele Systeme zusammen. GPU bieten einen grossen Vorteil bei Echtzeitverarbeitung der vielen Daten, welche die Sensoren des Autos übermitteln. Aber wir bieten nicht nur Hardware an, sondern den Unternehmen eine ganze Anzahl von Tools, ihre Forschung zu realisieren.

Google hat einen eigenen Prozessor für Deep Learning eingeführt. Ist das Konkurrenz zu Ihrem Angebot? - Wir arbeiten eng zusammen, die Leistung der Deep-Learning-Plattform TensorFlow weiterzuentwickeln. Und die Google Cloud wird von unseren GPU beschleunigt. Ich verstehe, warum sie an einem eigenen Prozessor arbeiten. Google sucht nach Lösungen für ihre speziellen Bedürfnisse. Für das Unternehmen wird es eine grosse Investition sein, ihre eigenen spezifischen Herausforderungen anzugehen. Wir geben Milliarden für das Design unserer Architektur und des Software-Umfelds aus, damit unsere Prozessoren für alle grossen Deep-Learning-Plattformen optimiert sind.

Könnte der Markt für GPU in der nahen Zukunft gesättigt sein? Jetzt fängt der Einsatz von GPU gerade erst an. In vielen Industrien, die wir beliefern, beginnt das Wachstum erst richtig. Die Anbieter von Clouds haben nun angefangen, uns einzusetzen. Sie sind in einem langfristigen Übergang. Bisher haben sie immer hauptsächlich auf CPU eingesetzt. Jetzt soll die zusätzliche Performance durch GPU kommen. Unsere Prozessoren können Kosten durch weniger Energie- und Platzverbrauch sparen. Und das KI-Knowhow von Google, Baidu oder Facebook liegt in parallelen Rechenzentren, die durch uns beschleunigt werden.

Warum gibt es nicht mehr Konkurrenten, wenn der Ausblick so gut ist? - Es wird mehr Konkurrenz geben. Als Kapitalgeber würde ich nach Unternehmen suchen, die Ideen für den Markt haben. Unser Vorteil ist, dass wir unser Angebot optimiert haben. Wir haben gezeigt, dass wir liefern können und eine Vision haben, in der Industrie führend zu sein.

Aktien-Alert

Von ABB bis Züblin – erhalten Sie sofort eine E‑Mail, sobald ein neuer Artikel zum Unternehmen Ihrer Wahl erscheint.

Um diesen Service zu nutzen, müssen Sie sich einloggen oder registrieren.