Branchen I USA I Halbleiter
Konkurrenz für Nvidia: Wem gehört die Zukunft bei den KI-Chips?
Derzeit dominiert der US-Konzern den Markt für KI-Chips nach Belieben. Doch wie lange noch? Prognosen und Szenarien von GTAI mit Blick auch auf eine Konkurrenz, die nicht schläft.
13.09.2024
Von Heiko Stumpf | San Francisco
Mit seinen Grafikprozessoren (Graphic Processing Units, GPUs) lässt das im Silicon Valley beheimatete Unternehmen Nvidia nur wenig Platz für Mitbewerber: Der Weltmarktanteil liegt bei über 80 Prozent. Die GPUs von Nvidia wurden eigentlich für Grafikdarstellungen in Computerspielen entwickelt, erweisen sich aber als ideal für die Entwicklung von KI-Modellen wie ChatGPT.
Die rasant wachsende Nachfrage ließ den Börsenwert von Nvidia zuletzt förmlich explodieren. Nach Schätzungen von Gartner dürfte der weltweite Umsatz mit KI-Chips von 54 Milliarden US$ im Jahr 2023 auf rund 92 Milliarden U$ in 2025 ansteigen. Erfüllen sich die von Branchenexperten erwarteten Wachstumsraten von durchschnittlich über 30 Prozent pro Jahr, könnte Ende des Jahrzehnts bereits die 400-Milliarden-Marke überschritten werden.
Der entstehende Milliardenmarkt verspricht sprudelnde Einnahmen und weckt naturgemäß die Begehrlichkeiten der Konkurrenz. Eine entscheidende Frage für die Halbleiterindustrie ist deshalb, ob Nvidia seine Dominanz auch in der Zukunft behaupten kann.
Die Konkurrenz setzt Nvidia zunehmend unter Druck
Wenn voraussichtlich Anfang 2025 mit Nvidia Blackwell die nächste Generation der GPUs auf den Markt kommt, dürfte sich zumindest eines klären. In Bezug auf die Technologieführerschaft und Leistungsstärke der Chips ist Nvidia auf absehbare Zeit kaum zu toppen. Dennoch gibt es eine Reihe von Veränderungen im Markt, die dazu führen, dass Nvidia auf mittlere Sicht Marktanteile abgeben muss. Damit bleibt Nividia zwar ein führender, aber nicht mehr alles dominierender Hersteller von Halbleitern für KI-Anwendungen.
Faktor 1: Big Tech entwickelt eigene In-House-Chips
Technologiegrößen wie Amazon, Google, Microsoft und Meta sind die größten Kunden von Nvidia und haben darüber hinaus eine weitere Sache gemeinsam: Alle Unternehmen investieren stark in die Entwicklung eigener KI-Chips. Google arbeitet in seinen Rechenzentren beispielsweise mit selbst entwickelten Tensor Processing Units (TPUs), um KI-Modelle zu trainieren. Dazu besteht eine Kooperation mit Broadcom. Anfang 2023 stellten die Unternehmen beispielsweise die AI-Chips Trillium und Axios vor.
Amazon verfügt über mehrere eigene Prozessoren wie Trainum und Inferentia. Microsoft brachte Anfang 2024 die KI-Chips Maia und Cobalt heraus. Und auch Meta verwendet bereits firmeneigene Halbleiter. Die In-House-Lösungen sind zwar nicht so leistungsstark wie die Prozessoren von Nvidia, können aber besser auf die speziellen Anforderungen der jeweiligen KI-Modelle zugeschnitten werden. Dadurch können diese im Einzelfall sogar effizienter sein als die vielseitigen Allzweckwaffen von Nvidia. Die Tech-Größen machen sich dadurch unabhängiger.
Faktor 2: Die Anforderungen an KI-Chips verändern sich
Bislang lag der Fokus in der KI-Entwicklung auf dem Trainieren von großen Modellen, was viel Rechenleistung erfordert. Hier konnte Nvidia seinen Vorsprung bei leistungsstarken GPU voll ausspielen. Nun rückt verstärkt auch die Anwendung der KI-Modelle in den Mittelpunkt. Hierbei ist der Prozess der Inferenz von entscheidender Bedeutung, bei dem ein trainiertes Modell neue Daten verarbeitet. Dies ist beispielhaft der Fall, wenn gesprochenes Wort in Text umgewandelt wird oder ein Chatbot eine Frage beantwortet.
Kommerzielle Anbieter solcher Anwendungen wollen die Kosten gering halten. Deshalb ist es bei der Inferenz im Gegensatz zum Training wichtig, mit möglichst geringem Rechenaufwand zu arbeiten. Da der Energieverbrauch von GPU zu hoch wäre, kommen bei der Inferenz spezielle Chips zum Einsatz, die eine hohe Effizienz aufweisen. Bei Inferenz-Chips ist der Vorsprung von Nvidia jedoch geringer als bei GPU. Und die Konkurrenz greift gleich von zwei Seiten an.
Traditionelle Chiphersteller: Anbieter wie AMD und Intel haben mit neuen Chipgenerationen insbesondere den Markt für Inferenz im Visier. AMD bewirbt seine voraussichtlich 2025 erscheinende Serie MI350 damit, bei Inferenz 35-mal besser abzuschneiden als vorher. Auch Intel will zum Beispiel mit Xeon-6-Prozessoren bei Inferenz punkten.
Start-ups: Eine wachsende Anzahl von jungen Firmen wie Groq, Cerebras, D-Matrix, Etched oder SambaNova entwickelt innovative Prozessoren für Inferenzaufgaben. Im Silicon Valley produziert Groq beispielsweise sogenannte Language Processing Units (LPUs), die dafür optimiert sind, große Sprachmodelle zu betreiben.
Faktor 3: Kleine Sprachmodelle sind im Kommen
Große Sprachmodelle wie ChatGPT von OpenAI oder Gemini von Google haben die generative KI ins Rampenlicht gerückt. Mittlerweile manifestiert sich jedoch ein Trend hin zu kleineren Anwendungen. Diese können gezielt für spezielle Aufgaben entwickelt werden, beispielsweise für Chatbots im Kundenservice. Die Entwicklung kleiner Modelle benötigt weniger Rechenleistung und kann damit kostengünstiger sein.
Hier öffnet sich ein Einfallstor für konkurrierende Chiphersteller: Beim Training von kleinen Sprachmodellen kann Nvidia leichter herausgefordert werden. AMD und Intel versuchen, mit KI-Beschleunigern wie MI325X oder Gaudi 3 anzugreifen. Kleinere Sprachmodelle stehen zudem im Zusammenhang mit einem weiteren Trend: Edge AI.
Große Modelle wie ChatGPT müssen aufgrund ihrer Komplexität in der Cloud beheimatet sein. Kleinere können hingegen direkt auf Endgeräten wie Laptops und Smartphones genutzt werden. Für Edge AI werden wiederum spezielle Prozessoren benötigt. Zwar ist Nvidia mit der Jetson-Plattform in diesem Feld vertreten, aber konkurrierende Anbieter können ebenfalls Fuß fassen. So entwickeln beispielsweise Apple (M4) und Qualcomm (Snapdragon X) spezielle Prozessoren für Edge AI.