Nvidias Entwicklung vom Vorreiter der Spielebranche zum führenden KI-Unternehmen

Eine Hand, die ein Handy-Display mit dem Nvidia-Logo hält

Was treibt ein Technologieunternehmen dazu, sich von einem Pionier der Spielegrafik in ein KI-Kraftpaket zu verwandeln? Die Entwicklung von Nvidia von einem angeschlagenen Startup zum wertvollsten Chiphersteller der Welt ist ein Beispiel für eine bemerkenswerte Reise der Innovation und strategischen Neuausrichtung. Die Entwicklung des Unternehmens zeigt, wie frühe Investitionen in neue Technologien in Kombination mit anpassungsfähigen Geschäftsstrategien zu einer Marktdominanz führen können.

Was CEO Jensen Huang und sein Team nicht ganz voraussehen konnten, war, wie perfekt sich die Durchbrüche der KI mit der von ihnen bereits aufgebauten parallelen Verarbeitungsinfrastruktur vereinbaren lassen würden. Lesen Sie weiter, um zu erfahren, wie dieses Unternehmen zwei Branchen revolutioniert hat - und was seine Zukunft in einem zunehmend wettbewerbsintensiven Umfeld bringen könnte.

Bild über Pexels(Lizenz). Bild beschnitten.

Wie Nvidia im Laufe der Jahre gewachsen ist

Nvidia hat sich vor über einem Jahrzehnt strategisch von der Spielegrafik auf die KI-Technologie umgestellt, Milliarden investiert und Tausende von Ingenieuren mobilisiert, um spezialisierte KI-Hardware und -Software zu entwickeln. Das Unternehmen hat seine Grafikprozessorchips (GPUs), die ursprünglich für Videospiele entwickelt wurden, für KI-Berechnungen umgewidmet und dabei ihre überlegenen parallelen Verarbeitungsfähigkeiten ausgenutzt. Dieses frühe Engagement und die technologische Innovation haben Nvidia an die Spitze der KI-Revolution gebracht und das Unternehmen in die Lage versetzt, die komplexen Anforderungen von KI und maschinellem Lernen mit energieeffizienten, hochleistungsfähigen Lösungen zu erfüllen.

(Kurzer Hinweis: GPUs sind spezialisierte Prozessoren, die das Grafik-Rendering beschleunigen. Sie sind entscheidend für Aufgaben, die eine parallele Verarbeitung erfordern, wie 3D-Rendering, Videowiedergabe und - in jüngerer Zeit - maschinelles Lernen und KI-Anwendungen).

Wir werden erkunden, wie Nvidias Wachstum zur Vorherrschaft im Bereich KI-Computing geführt hat, welche Herausforderungen das Unternehmen zu bewältigen hat und welche anderen Wege Nvidia beschreitet, um innovativ zu sein.

Nvidias Umstellung auf KI 

Laut Stephen Witt in Die denkende Maschinebegann die KI-Revolution, die Nvidia von einem Grafikunternehmen in eines der wertvollsten Technologieunternehmen der Welt verwandelt hat, als Forscher entdeckten, dass eine bestimmte Art von Computer-Lernmodell, ein so genanntes neuronales Netzwerk, noch nie dagewesene Ergebnisse erzielen kann, aber nur, wenn es von genau der Art von massiver paralleler Verarbeitung angetrieben wird, die CUDA zugänglich gemacht hat.

Neuronale Netze - Computersysteme, die die Informationsverarbeitung des menschlichen Gehirns nachahmen sollen - gibt es in der Theorie schon seit Jahrzehnten, aber sie blieben weitgehend unpraktisch, bis Forscher entdeckten, wie man sie mit enormen Datenmengen und Rechenleistung effektiv trainieren kann. Im Gegensatz zu herkömmlicher Software, die vorgegebenen Regeln folgt, lernen neuronale Netze durch die Analyse von Mustern in riesigen Datensätzen durch Millionen gleichzeitiger Berechnungen. Dieser Lernprozess, der als "Training" bezeichnet wird, erfordert genau die Art von massiver paralleler Verarbeitung, für die Nvidias Grafikprozessoren entwickelt wurden.

(Kurzer Hinweis: Das biologische Äquivalent der von Witt erwähnten Verarbeitungschips - die Nervenzellen im Gehirn - sind viel langsamer als der einfachste Computer. Der Vorteil des Gehirns besteht darin, dass seine Fähigkeit zur Parallelverarbeitung unübertroffen ist. Unter Tausend Gehirneerklärt der Neurowissenschaftler Jeff Hawkins, dass der Neokortex, der Teil des Gehirns, der für höhere kognitive Funktionen zuständig ist, aus etwa 150.000 kortikalen Säulen-Gruppierungen von Nervenzellen, die als diskrete Informationsverarbeitungseinheiten fungieren. Hawkins schreibt, dass die menschliche Kognition aus der parallelen Verarbeitung all dieser kortikalen Säulen entsteht, die wie ein riesiges Lagerhaus voller GPUs zusammenarbeiten und das produzieren, was unser Bewusstsein als unsere Erfahrung der Realität wahrnimmt).

Der AlexNet-Durchbruch, der die Strategie von Nvidia bestätigte

Im Jahr 2012 haben Forscher der Universität Toronto das Potenzial neuronaler Netze mit Hilfe der Technologie von Nvidia nachgewiesen. Laut Witt verwendete ein Forscherteam unter der Leitung von Alex Krizhevsky zwei handelsübliche Nvidia-Grafikkarten mit CUDA-Software, um ein neuronales Netzwerk für die Bilderkennung namens AlexNet zu erstellen. Dieses Netzwerk war nicht nur geringfügig besser als frühere Ansätze, sondern stellte einen grundlegenden Sprung nach vorn dar, der andere Methoden überflüssig machte.

Was AlexNet revolutionär machte, war nicht nur seine Leistung, sondern auch, was es über die Beziehung zwischen Rechenleistung und KI-Fähigkeiten verriet. Die Forscher hatten entdeckt, dass die Ergebnisse umso besser wurden, je mehr parallele Rechenleistung sie für das Training neuronaler Netze einsetzen konnten. Anfang des Jahres, so Witt, hatten Forscher bei Google ein neuronales Netzwerk trainiert, um Katzenvideos mit 16.000 herkömmlichen Prozessoren zu identifizieren. Krizhevskys Team erzielte mit nur zwei Nvidia-Platinen Ergebnisse von Weltklasse.

(Kurzer Hinweis: AlexNet verwendet "Faltung", eine mathematische Operation, bei der kleine Mustererkennungsfilter über ein Bild geschoben werden, wie das Verschieben eines kleinen Fensters, um nach Kanten, Formen oder Texturen zu suchen. Da dies Tausende von identischen Berechnungen erfordert, die gleichzeitig über das Bild ausgeführt werden, ist dies genau das, wofür GPUs konzipiert sind. Mehr Rechenleistung bedeutet, dass mehr Filter parallel laufen, wodurch das neuronale Netz immer komplexere Merkmale erkennen kann, von einfachen Kanten bis hin zu kompletten Objekten wie Gesichtern. Aus diesem Grund wird die KI durch die Erhöhung der Rechenleistung leistungsfähiger: Mehr Rechenleistung bedeutet im wahrsten Sinne des Wortes das Erkennen anspruchsvollerer Muster).

Während die breitere KI-Forschungsgemeinschaft die volle Tragweite von AlexNet zunächst nur langsam begriff, erklärte Witt, dass Huang es sofort als große Chance für die parallele Rechenarchitektur von Nvidia erkannte. Er richtete das gesamte Unternehmen rasch auf "Deep Learning" aus, die Art von neuronalem Netzwerktraining, die durch AlexNet demonstriert wurde, und erklärte Nvidia fast über Nacht zu einem "KI-Unternehmen". Dieser schnelle, entschlossene Schwenk erwies sich als entscheidend, um die sich bietende Chance zu ergreifen, die sowohl Nvidia als auch die Technologiebranche verändern würde.

Wie Transformers die Sprach-KI-Revolution auslöste

Der nächste große Durchbruch gelang 2017, als Google-Forscher die Transformer-Architektur entwickelten. Laut Witt handelt es sich bei Transformatoren um eine Art neuronales Netzwerk, das Sprache verarbeitet, indem es die Beziehungen zwischen allen Wörtern in einem Text gleichzeitig analysiert, anstatt sie einzeln zu verarbeiten. Anstatt einen Satz von Anfang bis Ende zu lesen, wie es der Mensch tut, können Transformatoren jedes Wort im Verhältnis zu jedem anderen Wort gleichzeitig untersuchen. Durch diese parallele Verarbeitungsfähigkeit sind Transformers perfekt für die GPU-Beschleunigung geeignet, d. h. sie können die Fähigkeit der Nvidia-Chips, Tausende von Berechnungen gleichzeitig durchzuführen, in vollem Umfang nutzen - eine weitere große Chance für Nvidia.

(Kurzer Hinweis: Die Transformatoren stellen zwar einen großen Durchbruch in der KI-Sprachverarbeitung dar, haben aber immer noch eine erhebliche "Bedeutungsbarriere": Sie verstehen die Sprache nicht so wie Menschen. Unter Künstliche Intelligenzerklärt Melanie Mitchell, dass Transformatoren auf statistischem Mustervergleich beruhen. Mit anderen Worten: Sie verarbeiten Text, ohne dessen Bedeutung wirklich zu verstehen. Außerdem fehlt ihnen das intuitive Wissen über die Welt, das wir als selbstverständlich voraussetzen, was sie anfällig für überraschende Fehler macht. Dies deutet darauf hin, dass die Angleichung zwischen Transformatoren und Nvidias Parallelverarbeitungsfähigkeiten zwar kommerziell erfolgreich ist, aber eher einen ausgeklügelten Musterabgleich darstellt als die wahre Intelligenz, um die sich KI-Kritiker sorgen).

Transformatoren ermöglichten die Entwicklung großer Sprachmodelle (Large Language Models, LLMs), KI-Systeme, die die Transformator-Architektur nutzen, um Sprache zu verarbeiten und zu generieren, nachdem sie anhand großer Textmengen trainiert wurden. Modelle wie die GPT-Reihe von OpenAI erforderten eine noch nie dagewesene Rechenleistung zum Trainieren. Die Forscher entdeckten jedoch, dass diese Modelle, je größer sie wurden und je mehr Rechenressourcen sie verbrauchten, umso leistungsfähiger wurden. Modelle, die das nächste Wort in einem Satz vorhersagen sollten, konnten Sprachen übersetzen, Code schreiben oder wissenschaftliche Konzepte erklären. Witt erklärt, dass dadurch eine Rückkopplungsschleife entstand: Mehr Rechenleistung führte zu leistungsfähigerer KI, was wiederum größere Investitionen in die Infrastruktur rechtfertigte, wovon Nvidia profitierte.

Wie KI-Fabriken zu einer wichtigen Infrastruktur wurden

Die Rechenanforderungen der auf Transformatoren basierenden KI-Modelle stellten eine neue Herausforderung dar. Witt stellt fest, dass herkömmliche Rechenaufgaben von einer einzigen leistungsstarken Maschine bewältigt werden können. Doch um die fortschrittlichsten LLMs zu trainieren, musste die Arbeit in Millionen von Teilen aufgeteilt und die Berechnungen auf Tausenden von Chips in Echtzeit koordiniert werden. Huangs Lösung waren so genannte "KI-Fabriken", spezialisierte Rechenzentren, die speziell für das Training und den Betrieb von KI-Systemen entwickelt wurden. Diese stellten eine neue Form industrieller Infrastruktur dar, die Rohdaten verbrauchen und Intelligenz produzieren würde, ähnlich wie herkömmliche Fabriken Rohstoffe verbrauchen und Waren produzieren. 

Von der Fabrikhalle zur KI-Fabrik: Eine neue Form der Entfremdung

Die KI-Fabrik von Huang offenbart eine neue Form der Beobachtungen, die Karl Marx in seiner Theorie der Entfremdung des Arbeiters gemacht hat - die Trennung zwischen den Menschen und den Produkten, die sie produzieren. Traditionelle Fabriken trennten die Arbeiter von den Ergebnissen ihrer physischen Arbeit, aber KI-Fabriken schaffen eine neue Form der Trennung zwischen menschlichen Schöpfern und ihrem geistigen Output. LLMs werden anhand riesiger Datensätze menschlicher Texte, Kunst und anderer kreativer Arbeiten trainiert. Dieser Prozess verwandelt die menschliche Kreativität in Rohmaterial für die algorithmische Produktion: Milliarden von Gedanken, Erfahrungen und kreativen Äußerungen von Menschen werden in Datensätzen zusammengefasst, die dazu dienen, die menschliche Bedeutungsgebung auf statistische Beziehungen zu reduzieren.

Der Prozess stützt sich auf mehrere Ebenen der Abstraktion und "Verfremdung", die sich immer weiter vom menschlichen Verständnis entfernen. KI-Systeme wandeln Text zunächst in Listen von Zahlen um, die die Position jedes Worts im mathematischen Raum darstellen. Das System erkennt dann Muster in der Beziehung dieser Zahlen zueinander, anstatt sich mit der eigentlichen Bedeutung der Sprache selbst zu befassen. Wenn KI-Systeme Text oder Kunst erzeugen, betreiben sie also fortgeschrittene Mathematik: Sie rekombinieren numerische Muster, um Ausgaben zu erzeugen, die den menschlichen Ausdruck nachahmen. Der Text oder die Kunst, die ein KI-System erzeugt, ist ein mathematisches Echo menschlicher Denkmuster, aber ohne die ursprüngliche Bedeutung und Aussagekraft dieser Gedanken.

Die wirtschaftlichen Auswirkungen dieser Infrastrukturverlagerung waren beispiellos. Das Training der fortschrittlichsten KI-Modelle erforderte Rechenressourcen, die in Tausenden von GPU-Jahren gemessen wurden (wofür ein einzelner Chip Tausende von Jahren bräuchte), konnte aber in Wochen oder Monaten bewältigt werden, wenn sie auf massive parallele Systeme verteilt wurden. Witt merkt an, dass dadurch die Eintrittsbarriere für die Entwicklung hochmoderner KI-Systeme so hoch ist, dass nur die größten Technologieunternehmen konkurrieren können: Unternehmen wie Microsoft, Google und Amazon lieferten sich ein Wettrüsten um Rechenkapazitäten und gaben Milliarden für Nvidia-Hardware aus, um immer größere KI-Fabriken zu bauen und ihren Wettbewerbsvorteil zu wahren.

(Kurzer Hinweis: Während parallele Berechnungen es einzelnen GPUs ermöglichen, Tausende von Berechnungen gleichzeitig durchzuführen, wurde die von Witt beschriebene massive Skalierung der Rechenleistung erst durch verteiltem Rechnen: Koordinierung von Tausenden von GPUs, um ein einziges KI-Modell zu trainieren. Das Training eines LLM erfordert die Verarbeitung von Milliarden von Textbeispielen und die Anpassung von Millionen von internen Einstellungen, den so genannten Parametern, die bestimmen, wie das Modell reagiert: eine Aufgabe, die so gewaltig ist, dass ein einzelner Computer dafür Tausende von Jahren benötigen würde, die aber nur Wochen in Anspruch nimmt, wenn sie auf Tausende von GPUs verteilt wird. Eine solche Koordinierung stellt eine große Herausforderung dar, die Nvidia mit spezieller Netzwerkhardware und -software gelöst hat, um den Informationsaustausch zwischen den GPUs zu optimieren).

Nvidia verschaffte sich einen Vorsprung, indem es als früher Innovator Software anbot, die von den Entwicklern bevorzugt wurde, und GPUs in großen Mengen zuverlässiger als die Konkurrenz produzierte. Dieser Vorteil führte zu einer weit verbreiteten Annahme in verschiedenen Sektoren, einschließlich der Automobilindustrie, wo Nvidia-Chips die erste Wahl für die Verarbeitung von Sensorbildern in Fahrerassistenzsystemen wurden.

Dies ist nicht Nvidias erster Pivot

1993 gründeten Jensen Huang, Curtis Priem und Chris Malachowsky Nvidia und erkannten das zukünftige Potenzial von Grafikprozessoren für PC-Spiele. Wie Tae Kim in seinem Buch festhält Der Nvidia-WegObwohl die Gründer zuversichtlich waren, dass ihre innovative Technologie Gamer anziehen und die Industriestandards übertreffen würde, waren die ersten Jahre von Nvidia von großen Herausforderungen und Instabilität geprägt.

Die ersten Versuche des Unternehmens erwiesen sich als problematisch. Die ersten beiden Chipmodelle konnten sich nicht durchsetzen, und eine kostspielige Investition von 15 Millionen Dollar in eine erfolglose Chipentwicklung brachte Nvidia an den Rand des Zusammenbruchs. Nur wenige Wochen vor dem Erreichen des "Point of no Return" ergriffen die Gründer entschlossene Maßnahmen, einschließlich Personalabbau, um das Unternehmen über Wasser zu halten. Ein weiterer Rückschlag kam, als der NV2-Chip, der für die nächste Spielkonsole von Sega vorgesehen war, mitten in der Entwicklung abgebrochen wurde und nur eine Entwicklungsgebühr von 1 Million Dollar für ihre Bemühungen einbrachte.

Laut Kim kam der Wendepunkt für Nvidia mit der Entscheidung, in eine neue Richtung zu innovieren. Sie entwickelten den RIVA 128, um den schnellsten Grafikchip auf dem Markt zu schaffen. Dieses Projekt war komplexer als seine Vorgänger und erforderte erweiterte Fertigungskapazitäten. Trotz des engen Zeitrahmens - man musste in neun Monaten fertigstellen, was normalerweise zwei Jahre dauert - gelang es Nvidia, seine Strategie zu ändern. Statt auf eine eigene Technologie zu setzen, konzentrierte sich das Unternehmen auf die Entwicklung eines vielseitigen Produkts, das alle wichtigen Spiele unterstützen und gleichzeitig abwärtskompatibel sein sollte.

In den letzten Jahren hat Nvidia seinen Einfluss durch strategische Partnerschaften mit führenden Computerherstellern und Cloud-Anbietern ausgebaut. Diese Kooperationen haben die Attraktivität seiner KI-Plattformen erhöht und mehr Entwickler und Kunden angezogen, wodurch Nvidias führende Position weiter gefestigt wurde.

Innovieren und den Markt beherrschen

Die Innovationen von Nvidia gehen weit über KI-Chips hinaus und zeigen die Anpassungsfähigkeit des Unternehmens bei verschiedenen Spitzentechnologien.

  • Supercomputing. Die Chips von Nvidia verarbeiten riesige Datenmengen für fortschrittliche Computersysteme. Meta nutzt diese Fähigkeiten, um komplexe KI-Modelle zu trainieren; Tesla treibt die Entwicklung eines KI-fokussierten Supercomputers zur Verbesserung der Fahrzeugautomatisierung voran.
  • Spielen. GPUs wie die GeForce RTX 4070 ermöglichen schnellere Spiele mit höherer Auflösung - ein entscheidender Faktor, wenn sich die Branche von Konsolen auf Cloud-basierte Plattformen verlagert.
  • Metaverse und erweiterte Realität. Die Omniverse-Plattform und die 3D-Modellierungswerkzeuge von Nvidia bringen das Metaverse und die erweiterte Realität (XR) voran und erfüllen den wachsenden Bedarf an virtuellen Trainingsumgebungen und anderen Anwendungen.
  • Kryptowährungs-Mining. Grafikkarten von Nvidia, die für das stromintensive Mining von Kryptowährungen unerlässlich sind, erfreuen sich mit der zunehmenden Beliebtheit digitaler Token einer steigenden Nachfrage.

Herausforderungen für Nvidias anhaltendes Wachstum

Trotz seiner derzeitigen Marktdominanz stehen das Wachstum und die Marktposition von Nvidia in der Zukunft vor mehreren großen Herausforderungen:

  • Zunehmender Wettbewerb. Tech-Giganten wie Intel, AMD, Meta, Google, Microsoft und Amazon entwickeln ihre eigenen Chips und gefährden damit möglicherweise Nvidias 80 %igen Marktanteil. Da sich die Branche weiterentwickelt, könnten sich Unternehmen, die die Abhängigkeit von einem einzigen Anbieter vermeiden wollen, an diese Konkurrenten wenden und Nvidias Dominanz untergraben.
  • Hohe Kosten und Lieferkettenprobleme. Die teuren High-End-Chips von Nvidia und die potenziell langen Wartezeiten könnten Kunden dazu bringen, Alternativen in Betracht zu ziehen - eine Schwäche, die Wettbewerber ausnutzen könnten.  
  • Möglicher Mangel an Chips. Trotz des CHIPS and Science Act 2022, der die Chip-Produktion in den USA ankurbeln soll, könnte das Angebot die steigende Nachfrage nach Nvidia-Chips nicht decken.
  • Regulierungs- und Handelsfragen. Aufkommende Regulierungen auf dem Markt für generative KI und US-Handelsbeschränkungen gegenüber China könnten Nvidias Geschäfte und Umsätze beeinträchtigen.

Der Weg in die Zukunft

Nvidia bleibt eine dominierende Kraft im Bereich der KI, da seine Prozessoren in vielen Rechenzentren eine zentrale Rolle spielen. Dadurch ist das Unternehmen in der Lage, vom Wachstum des KI-Chipmarktes zu profitieren.

Experten warnen jedoch davor, dass sich die Landschaft verschiebt. Mit der Verschärfung des Wettbewerbs könnte Nvidia von neuen Marktteilnehmern herausgefordert werden, die innovative, vielseitige Technologien anbieten, die auf verschiedenen Hardwaretypen funktionieren. Dies könnte das Modell von Nvidia bedrohen, das sich in hohem Maße auf seine proprietäre CUDA-Software stützt, die ausschließlich für seine GPUs entwickelt wurde.

Darüber hinaus ist Nvidia zwar beim Training von KI-Modellen hervorragend, hinkt aber bei Inferenzaufgaben hinterher, die für das Training von KI-Modellen für Entscheidungen oder Vorhersagen in Echtzeit verwendet werden. Wenn Wettbewerber schnellere Chips für diese Anwendungen entwickeln, könnte Nvidia in diesem wichtigen Bereich Marktanteile verlieren.

Letztlich wird Nvidias Innovations- und Anpassungsfähigkeit darüber entscheiden, ob das Unternehmen seine Führungsposition halten kann.

FAQ

Was machte Nvidia in den Anfangsjahren so erfolgreich?

Nach anfänglichen Produktfehlschlägen gelang Nvidia mit dem RIVA 128-Chip der Durchbruch - der erste große Erfolg - dank einer strategischen Verlagerung auf Vielseitigkeit und Abwärtskompatibilität.

Welche Rolle hat der Durchbruch von AlexNet für den Erfolg von Nvidia gespielt?

Das AlexNet-Projekt aus dem Jahr 2012 bewies, dass Nvidias Grafikprozessoren das Training neuronaler Netzwerke dramatisch beschleunigen können, und bestätigte Jensen Huangs Entscheidung, das Unternehmen auf KI auszurichten.

Wie hat Nvidia den Übergang von Spielen zu KI geschafft?

Nvidia hat seine Grafikprozessoren (GPUs), die ursprünglich für Spiele entwickelt wurden, umfunktioniert, um die komplexen Berechnungen zu bewältigen, die für KI und maschinelles Lernen erforderlich sind.

Was sind "KI-Fabriken", und wie nutzt Nvidia sie?

KI-Fabriken sind spezialisierte Datenzentren, die für das Training und den Betrieb von KI-Systemen gebaut wurden. Sie stellen ein neues Industriemodell dar, bei dem Daten das Rohmaterial und Intelligenz das Ergebnis sind und das hauptsächlich von Nvidia-Hardware angetrieben wird.

Wie tragen die Transformatoren zum Erfolg von Nvidia bei?

Transformers, die alle Wörter in einem Text gleichzeitig verarbeiten, sind stark auf parallele Verarbeitung angewiesen - perfekt geeignet für die Grafikprozessoren von Nvidia - und sorgen für ein explosionsartiges Wachstum bei großen Sprachmodellen und im Geschäft von Nvidia.

In welchen anderen Branchen ist Nvidia führend?

Die Technologie von Nvidia treibt den Fortschritt in den Bereichen Supercomputing, Spiele, Metaverse und Kryptowährungs-Mining voran.

Vor welchen großen Herausforderungen steht Nvidia?

Zu den größten Hürden für Nvidia gehören die wachsende Konkurrenz durch Unternehmen, die ihre eigenen Chips entwickeln, hohe Produktionskosten, potenzielle Chip-Knappheit und neue regulatorische und Handelsbeschränkungen.

Erfahren Sie mehr über das Wachstum von Nvidia in der KI-Branche

Um das Wachstum von Nvidia und seinen breiteren Kontext besser zu verstehen, lesen Sie die Leitfäden und Artikel von Shortform, auf die wir in diesem Artikel verweisen:

Eine Antwort hinterlassen