Tot nu toe heeft Nvidia de overgrote meerderheid van de processors geleverd die worden gebruikt om op grote schaal te trainen en te werken NAAR DE modellen zoals die waarop ChatGPT is gebaseerd. Technologiebedrijven en AI-laboratoria houden er niet van om te afhankelijk te zijn van één enkele chipleverancier, vooral omdat hun behoefte aan rekenkracht toeneemt, dus zoeken ze naar manieren om te diversifiëren. En dus haasten spelers als AMD en Huawei, maar ook hyperscalers als Google en Amazon AWS, die zojuist hun nieuwste Trainium3-chip hebben uitgebracht, hun eigen versies van AI-accelerators, processors die zijn ontworpen om specifieke soorten computertaken te versnellen.
Zou de concurrentie Nvidia, de dominante speler in de AI-industrie, uiteindelijk kunnen reduceren tot slechts de zoveelste leverancier van AI-chips, een van de vele opties die mogelijk de technologische fundamenten van de industrie doen schudden? Of is de stijgende vraag naar AI-chips groot genoeg om alle boten op te tillen? Dit zijn de biljoenenvragen.
Google veroorzaakte een kleine schokgolf door de hele sector toen het terloops zei dat het dit had gedaan opgeleid Dit is indrukwekkend nieuws Tweeling 3 Pro model volledig op zijn eigen tensor processing units (TPU’s), een ander type AI-acceleratorchips (GPU’s). Waarnemers uit de industrie vroegen zich al snel af of de brede afhankelijkheid van de AI-industrie van Nvidia-chips gerechtvaardigd was. Ze zijn immers erg duur: een groot deel van de miljarden die momenteel worden uitgegeven aan de ontwikkeling van computercapaciteit voor kunstmatige intelligentie (datacenters) is bestemd voor Nvidia-chips.
En de TPU’s van Google lijken meer een alternatief voor Nvidia. Het bedrijf kan TPU’s huren in zijn datacenters en overweegt naar verluidt de chips rechtstreeks aan andere AI-bedrijven te verkopen, waaronder Meta en Anthropic. Een (betaald) relatie van De informatie zei in november dat Google in gesprek is om zijn GPU’s te verkopen of te leasen, zodat ze in de datacenters van elk bedrijf kunnen draaien. A Reuters relatie zegt dat Meta in gesprek is om vanaf 2027 “miljarden” uit te geven aan de TPU’s van Google, en al eerder zou kunnen gaan betalen om AI-workloads op TPU’s in de datacenters van Google uit te voeren. Anthropic maakte in oktober bekend hier gebruik van te willen maken tot één miljoen TPU in de datacentra van Google om zijn Claude-modellen te ontwikkelen.
De regelrechte verkoop van TPU’s zou Google technisch gezien in directe concurrentie brengen met Nvidia. Maar dat betekent niet dat Google zijn uiterste best doet om de chipactiviteiten van Nvidia te stelen. Google is immers een grote afnemer van Nvidia-chips. Google kan overwegen om TPU aan bepaalde klanten te verkopen als verlengstuk van de verkoop toegang voor TPU’s die in de cloud draaien.
Dat is logisch als klanten de soorten AI-verwerking willen uitvoeren waar TPU’s bijzonder goed in zijn, zegt IDC-analist Brandon Hoff. Hoewel de GPU’s van Nvidia werkpaarden zijn die een breed scala aan taken kunnen uitvoeren, hebben de meeste grote technologieplatformbedrijven hun eigen, speciaal gebouwde accelerators ontworpen voor hun meest cruciale soorten computergebruik. Microsoft heeft geoptimaliseerde chips ontwikkeld voor zijn Azure-clouddiensten. De Trainium-chips van Amazon zijn zeer geschikt voor e-commerce-gerelateerde taken zoals productsuggesties en leveringslogistiek. De TPU’s van Google zijn goed in het weergeven van gerichte advertenties op zijn platforms en netwerken.
Dit is iets dat Google deelt met Meta. “Ze bieden allebei advertenties aan, dus het is logisch dat Meta een kijkje wil nemen naar het gebruik van TPU’s door Google”, zegt Hoff. En het is niet alleen Meta. De meeste grote technologiebedrijven gebruiken verschillende accelerators omdat ze machine learning en kunstmatige intelligentie voor een breed scala aan taken gebruiken. “Apple heeft een aantal TPU’s, enkele AWS-chips, uiteraard enkele GPU’s, en gespeeld met wat goed werkt voor verschillende werklasten”, voegt hij eraan toe.
Het grote voordeel van Nvidia was dat de chips erg krachtig zijn: zij zijn de reden waarom het trainen van grote taalmodellen mogelijk werd. Het zijn ook geweldige generalisten, geschikt voor een grote verscheidenheid aan AI-workloads. Daarnaast zijn ze flexibel, wat betekent dat ze verbinding kunnen maken met verschillende platforms. Als een bedrijf bijvoorbeeld zijn AI-modellen op een mix van clouddiensten wil laten draaien, zal het die modellen waarschijnlijk ontwikkelen om op Nvidia-chips te draaien, omdat alle clouds deze gebruiken.
“Het flexibiliteitsvoordeel van Nvidia is reëel; het is geen toeval dat GPU-fungibiliteit tussen werklasten wordt gezien als rechtvaardiging voor hogere kapitaaluitgaven door zowel Microsoft als Meta”, schreef analist Ben Thompson in een recente nieuwsbrief. “TPU’s zijn meer gespecialiseerd op hardwareniveau en moeilijker te programmeren op softwareniveau, dus voor zover klanten flexibiliteit belangrijk vinden, blijft Nvidia de voor de hand liggende keuze.”
De afhankelijkheid van leveranciers blijft echter een groot probleem, vooral omdat grote technologiebedrijven en AI-laboratoria honderden miljarden dollars investeren in nieuwe datacentercapaciteit voor AI. AI-bedrijven zouden in plaats daarvan liever een mix van AI-chips van verschillende leveranciers gebruiken. Anthropic is hier bijvoorbeeld expliciet over: “De unieke computerstrategie van Anthropic richt zich op een gediversifieerde aanpak die efficiënt gebruik maakt van drie chipplatforms: Google’s TPU, Amazon’s Trainium en NVIDIA’s GPU”, aldus het bedrijf in een blogpost van oktober. Amazon’s AWS zegt dat zijn Trainium3-chip ongeveer vier keer sneller is dan de Trainium2-chip aangekondigd een jaar geleden en 40% efficiënter.
Vanwege de prestaties van Nvidia-chips zijn veel AI-bedrijven gestandaardiseerd CUDANvidia’s softwarelaag waarmee ontwikkelaars kunnen bepalen hoe GPU’s samenwerken om hun AI-applicaties te ondersteunen. De meeste ingenieurs, ontwikkelaars en onderzoekers die met grote AI-modellen werken, zijn bekend met CUDA, wat een andere vorm van op vaardigheden gebaseerde organisatorische lock-in kan veroorzaken. Maar het kan nu zinvol zijn voor organisaties om geheel nieuwe alternatieve softwarestacks te bouwen voor verschillende soorten chips, zegt Thompson. “Het feit dat ze dit al een hele tijd niet meer hebben gedaan, komt eenvoudigweg omdat het de tijd en moeite niet waard is; wanneer de plannen voor kapitaaluitgaven echter honderden miljarden dollars bereiken, verandert wat ‘waarde’ is.”
IDC voorspelt dat de grote vraag naar op AI gebaseerde rekenkracht niet snel zal afnemen. “We zien cloudproviders snel groeien, maar hun uitgaven zullen vertragen”, zegt Hoff. Daarnaast zou een tweede golf van vraag kunnen komen van ‘staatsinvesteringsfondsen’, zoals Saoedi-Arabië, dat de Humain ‘AI-hub’ bouwt, een groot AI-infrastructuurcomplex dat het zal financieren en controleren. Een nieuwe golf van vraag zou kunnen komen van grote multinationals die soortgelijke ‘soevereine’ AI-infrastructuren willen bouwen, legt Hoff uit. Er zijn veel dingen in 2027 en 2028 die de vraag zullen blijven stimuleren.”
Er zijn veel “Nvidia-chipmaker-uitdagingen” verhalen daarbuiten, maar hoe dieper je verdiept in de economische complexiteit en concurrentiedynamiek van de AI-chipmarkt, een groot deel van het drama vervaagt. Naarmate AI steeds meer toepassingen vindt in zowel bedrijfs- als consumententechnologie, zullen AI-modellen steeds meer soorten taken moeten uitvoeren, en elk daarvan zal verschillende mixen van generalistische of gespecialiseerde chips vereisen. Dus hoewel de concurrentiedruk op Nvidia toeneemt, zijn er nog steeds genoeg goede redenen voor spelers als Google en Amazon om met Nvidia samen te werken.
“Er zal de komende jaren meer vraag dan aanbod zijn, dus dit alles zal er bijna niet toe doen”, zegt Patrick Moorhead, hoofdanalist bij Moor Insights & Strategy. Moorhead gelooft dat Nvidia GPU’s over vijf jaar nog steeds hun marktaandeel van 70% zullen behouden.



