“Op de een of andere manier lekte het niet uit.”
Toen ik Rivian-oprichter en CEO RJ Scaringe ontmoette na de bedrijfsbijeenkomst Toespraak “Dag van AI en Autonomie”. Op 11 december verwonderde hij zich op het hoofdkantoor in Palo Alto dat het bedrijf erin was geslaagd het nieuws over de gebeurtenis verborgen te houden totdat het klaar was voor de grote onthulling.
Zo was het en er was veel te bespreken. Tijdens de keynote presenteerde Rivian zijn Gen 3-platform, waarvan het de fabrikant zal worden EV vrachtwagens, SUV’s en bestelwagens in een autonome samenleving, een focus die volgens hem “de hele transportsector” zal omvatten.
Het Rivian Autonomy Computer-platform, dat eind volgend jaar debuteert in een versie van de komende R2 SUV, wordt aangedreven door een chip die door het bedrijf zelf is ontworpen, de RAP1 (Rivian Autonomy Processor). De zelfrijdende capaciteiten van de R2 zullen ook gebruik maken van gegevens van een lidar-eenheid die discreet bovenaan de voorruit zit, in tegenstelling tot de roterende lidar-torens bovenop voertuigen zoals Waymos. (ControversieelTesla-auto’s gebruiken geen Lidar-sensoren.)
Rivian toonde ook een nieuwe spraakgestuurde gebruikersinterface genaamd Rivian Assistant, die beschikbaar zal zijn als update voor zijn huidige voertuigen en de R3. Een weddenschap op de toekomst van auto-interfaces die zich richten op conversatie in plaats van op schermen aan te raken, en beschikt over integratie met Google Agenda, wat het soort productiviteit-gerelateerde functies die nuttiger zouden kunnen worden naarmate auto’s meer rijwerk op zich nemen.
Ik sprak met Scaringe over al deze onderwerpen en meer. Ons gesprek is aangepast voor lengte en duidelijkheid.
Hoeveel van wat u vandaag hebt aangekondigd, maakte, althans in grote lijnen, deel uit van Rivian’s oorspronkelijke visie en routekaart?
Nou, dat was twintig jaar geleden. Maar zoiets als vandaag is het resultaat van de vele duizenden mensen die er de afgelopen jaren aan hebben gewerkt. De ontwikkeling op de platforms die we vandaag lieten zien, begon in 2022.
Een van de rode draden die veel van uw verhalen met elkaar verbindt, is dat u de dingen zelf doet en niet afhankelijk bent van andere partijen. Was er een tijd dat u niet zeker wist welk pad u moest nemen?
Misschien is de manier om dat te beantwoorden het volgende: toen we in 2021 lanceerden, hadden we wat we onze Gen 1-architectuur noemen. En het was een heel andere aanpak dan wat we gebruikten in onze Gen 2 en, uiteraard, wat zal worden gebruikt in onze Gen 3.
We hadden een perceptieplatform, deels van ons, grotendeels niet van ons, dat een planner voedde, die van ons was, en een reeks op regels gebaseerde beslissingen nam over hoe we het voertuig moesten besturen. Dit was een zeer eenvoudige rijhulp – functionaliteit op laag niveau twee. En aangezien dit architectuur is, hadden we een natuurlijke limiet. We realiseerden ons dat naarmate we dichter bij de lancering kwamen, de wereld van deze meer deterministische, klassieke systemen naar een echte wereld zou evolueren. NAAR DEsysteem gebaseerd op.
Het is een beetje ironisch. Als we het hebben over ‘autonoom rijden’, zouden we kunnen denken dat dit historisch gezien altijd kunstmatige intelligentie is geweest. Maar in het begin was er in werkelijkheid geen kunstmatige intelligentie. Een deel ervan bestond uit zeer geavanceerde als-dan-verklaringen met een goede computervisie.
Waar het nu naar toe is gegaan is echte kunstmatige intelligentie, en dat gebeurde begin jaren twintig. Terwijl dit gebeurde, kwamen we tot de conclusie dat we onze aanpak volledig moesten veranderen. En toen we dit besluit begin 2022 namen, benaderden we het alsof er niets was.
Met deze mooie aanpak luidde het: “Laten we ons eigen perceptieplatform ontwerpen. Laten we ons eigen computerplatform ontwerpen met Gen 2, waarbij we Nvidia gebruiken als de leverancier van de chips zelf, en van de inferentieplatforms zelf, en een datavliegwiel bouwen waarmee we een op neurale netwerken gebaseerde aanpak kunnen bouwen.” De voertuigen werden uiteindelijk medio 2024 gelanceerd, iets minder dan anderhalf jaar geleden.
En parallel daarmee zijn we ook begonnen met een aantal grote hardware-inspanningen, waarvan de grootste een interne chip is. Om van nul (geen chipontwerpteam, geen interne chip, geen IP-chip) naar het lanceren van een chip te gaan kost tijd, het kost vele honderden miljoenen dollars, er is een hele, hele grote organisatie voor nodig. Maar we namen de beslissing in ’22 en werkten eraan om het te laten gebeuren. Op de een of andere manier lekte het niet. Maar nu is het fijn om er publiekelijk over te kunnen praten en volgend jaar zal het in voertuigen te zien zijn.
Een op AI gerichte aanpak vereiste deze verticale integratie van perceptie. U hoeft de computer niet te bezitten, maar als u deze bezit, kunt u deze tegen een lager kostenniveau en, in ons geval, met een hoger prestatieniveau leveren.
Wij geloven gewoon dat (autonomie) niet alleen een onderdeel is van de auto-industrie. Als je een beetje goed kijkt, is dat het hele probleem. En dus hebben we deze visie opgebouwd dat waar we het grootste deel van onze R&D inzetten, deze categorie moet vallen.
Was het volkomen duidelijk dat je Lidar nodig had?
Er is één gedachte over lidars die moet worden opgegeven, namelijk dat ze duur en mechanisch complex zijn. De oude Velodyne-lidars, zelfs degene die je tegenwoordig op de wegen ziet, waren echt complexe sensoren. Maar nu zijn ze zeer goedkoop, uiterst betrouwbaar en op solid state gebaseerd.
Tien jaar geleden kostte de best presterende lidar die je kon kopen misschien $70.000. Vijf jaar geleden was het misschien $ 5.000. Tegenwoordig gaat het om een paar honderd dollar. En dus werd het zo handig om de hele vloot in een grondwaarheidsvloot te veranderen. Het is erg handig voor het trainen van uw camera’s, vooral onder ongunstige omstandigheden.
Als je de ui afpelt en naar het sensorkostentraject kijkt, is het een soort vreemd debat geworden, waarom Tesla hierover zo’n standpunt heeft ingenomen. Maar het was niet echt een debat. Als het een sensor van $ 10.000 was geweest, zou het een ander verhaal zijn geweest. Maar als het om een beslissing van een paar honderd dollar gaat, is het veel gemakkelijker om te nemen.
De Google Agenda-integratie van uw nieuwe assistent heeft mij doen beseffen dat als ik niet veel tijd hoef na te denken over autorijden, er voldoende mogelijkheden zijn om productief te zijn in de auto. In hoeverre probeer je een extreem krachtige assistent te bouwen?
Google Agenda is slechts een van de vele voorbeelden van integraties. Tegenwoordig is er een beperkte set gemaakt voor het wisselen van agent naar agent. Maar elk platform dat echt wil overleven, en niet alleen maar wil worden opgeslokt door een AI-platform, zal zeer capabel moeten worden in termen van het mogelijk maken van de agent-tot-agent-relatie. Eigenlijk zoals SDK’s (software development kits) die het koppelen makkelijker maken. Het doel is dat we in principe elke app die u wilt gebruiken, kunnen verbinden met onze agenten en dat deze naadloos zal verlopen.
Zo kun je alle apps bereiken zoals je die vandaag zag. Je hebt met de auto gepraat, de auto kon Google bereiken en de kalender vinden. We konden hem vertellen iets te verplaatsen en via een agent ging hij terug naar Google en verplaatste alles. Het is het topje van de ijsberg.
Al deze dingen zullen zo natuurlijk worden dat de auto een soort persoonlijke assistent wordt. Of u nu uw planning wilt verschuiven, eten wilt bestellen of iemand wilt plannen om bij u thuis te komen om het sanitair te repareren, al deze dingen worden heel, heel gemakkelijk te doen. En als u geen auto meer bestuurt, wilt u wellicht de auto gebruiken om u met meer van deze zaken te helpen.
Heeft u enig idee hoe de toekomst eruit zal zien in termen van het naast elkaar bestaan van robotaxis en autonome privévoertuigen?
Ik denk absoluut dat ze naast elkaar zullen bestaan. Ze sluiten elkaar verre van uit. Het bestaan van niveau vier (autonomie) het is wat beide mogelijk maakt, en de technologie vanuit een niveau vier-perspectief is hetzelfde. We zijn gefocust op technologie en het eerste geplande exemplaar is een persoonlijk voertuig. Maar dat weerhoudt ons er niet van om robotaxis of rideshares te bouwen.
Rideshare is tegenwoordig goed voor zo’n klein percentage kilometers. Ik was van mening dat we zouden gaan van 99% van de kilometers in de wereld, gereden door voertuigen in persoonlijk bezit, naar 50% van de kilometers in de wereld, gereden door voertuigen in persoonlijk bezit, en de andere helft van de kilometers in de wereld, gereden door gedeeld eigendom. Misschien gebeurt het, maar ik denk dat het waarschijnlijker is dat het van 99% naar 90% gaat. Misschien komt het omdat ik nu kinderen heb, en de complexiteit van autostoelen, voetballen en voetbalpakken.
Ik denk dat het van land tot land zal verschillen. Als je kijkt naar het welvaartsniveau in de Verenigde Staten, als je je vandaag de dag een auto kunt veroorloven, zouden veel mensen er nog steeds de voorkeur aan geven om er een te bezitten en de eenvoud te hebben om deze altijd beschikbaar te hebben voor hen en hun gezin. Maar ik hoef hier eigenlijk helemaal geen sterke overtuiging over te hebben. Als er een radicale verandering in het consumptiepatroon zou plaatsvinden, zijn wij er net zo klaar voor.
Het verbaast me hoeveel aandacht het bedrijfsmodel krijgt. Als het ene uiteinde van het spectrum traditioneel eigendom is zoals we dat nu kennen, en het andere uiteinde van het spectrum pay-as-you-go is, zijn we niet erg fantasierijk. Er zal veel tussen zitten. Misschien ben ik overdag de eigenaar van het voertuig en gebruikt iemand anders het ’s nachts. Misschien is het voertuig doordeweeks van mij en in het weekend van een ander gezin. Misschien wordt het voertuig gedeeld door vijf of zes personen in plaats van voor onbepaalde tijd.
Er zullen eenvoudigweg een hele reeks nieuwe manieren zijn om mobiliteit te consumeren zodra het voertuig zelf kan rijden. En onze visie is dat we over het hele spectrum zullen bestaan. Maar het enige dat absoluut zeker en noodzakelijk is voor welk punt op dat spectrum dan ook, is niveau vier. Robotaxen werken niet op niveau drie. Persoonlijk niveau vier werkt uiteraard niet met niveau drie. Je hebt niveau vier nodig. Dus dat is waar wij ons op concentreren.


