Der Geist in der Grafikkarte:
NVIDIAs GPC2020

Im Rahmen der GPC 2020 kommen Spezialisten aus allen Fachbereichen zusammen – in diesem Jahr online

Aufgrund der durch das COVID-19 hervorgerufenen, geänderten Rahmenbedingungen, findet NVIDIAs diesjährige GPU Technology Conference als digitales Online-Event statt, anstatt wie ursprünlich geplant in San Jose. Da die Anmeldung kostenfrei ist, kommt man auf diese Weise in den Genuss teils hochspezialisierter Fachvorträge, ganz ohne Ausgaben für Reise oder Hotel.

Neben einer Vielzahl von Kursen, Workshops und Postern zu den verschiedensten Anwendungsfällen und Teilaspekten von High Performance Computing (HPC) und Artifical Intelligence (AI), werden auf der GTC Tools und Lösungen präsentiert, die die Entwicklung und Integration von Deep Learning (DL)-Ansätzen weiter vereinfachen und somit noch massentauglicher machen sollen. Um dieses Ziel zu erreichen, findet man im Session-Katalog auch immer wieder Vorträge, wie der von Will Ramey, in dem Grundlagen zum Thema künstliche Intelligenz erklärt werden

Doch weshalb betreibt eine Firma, die die meisten Endanwender lediglich als Hersteller von Grafikkarten kennen, einen derartigen Aufwand?

Die Antwort ist recht einfach: Um Grafikkarten zu verkaufen.

Zugegeben, diese Darstellung ist sehr stark vereinfacht, jedoch verdiente NVIDIA, nach Zahlen vom März 2020, etwa 9,5 Milliarden US-Dollar mit dem Verkauf von Graphics Processing Units (GPUs) und lag damit im Q4 2019 deutlich vor dem Mitbewerber AMD.

Warum aber profitiert gerade ein Hersteller von Grafikkarten vom Trendthema AI – und nicht Firmen wie Intel oder AMD, deren Prozessor-Chips (CPU) in praktisch jedem Heimcomputer und Server verbaut sind?

Technisch gesehen ist auch diese Antwort recht einfach: Grundsätzlich basieren die meisten DL-Modelle auf der gewichteten, stufenweisen Verarbeitung von Parametern. Tim Dettmers hat das Grundkonzept hinter Deep Learning in einem Artikel im NVIDIA Developer Blog zusammengefasst.

Mathematisch wird dies über sogenannte Matrix-Multiplikationen abgebildet – und genau da kommt der Vorteil der GPU gegenüber der CPU zum Tragen: Grafikkarten wurden ursprünglich genau dazu entwickelt diese mathematischen Operationen möglichst performant durchzuführen. Im direkten Vergleich kann bereits eine GPU deutlich mehr Bilder pro Sekunde verarbeiten als ein Verbund aus 5 CPUs – und die Leistungsfähigkeit der GPUs hat sich in den letzten Jahren immer weiter erhöht.

Auch wenn die prominentesten Beispiele für Deep Learning oder AI aus den Bereichen der Bildverarbeitung oder autonomen Fahren kommen, sorgt die Zunahme sogenannter Edge Devices als Bestandteil des IoT dafür, dass immer größere Datenmengen zu verarbeiten, (vor) zu klassifizieren und für (de-)zentrale Erfassungs- und Verarbeitungssysteme aufzubereiten sind. Um dies zu realisieren, genügen traditionelle, regelbasierte Systeme of nicht mehr. Ein Ansatz zur Lösung dieser Herausforderungen is Deep Learning oder AI – dazu bedarf es jedoch neben der passenden Hard- und Software auch Wissenschaftler und Spezialisten die in der Lage sind mit diesen Systemen zu arbeiten.