LinkedIn lanceert deze week zijn nieuwe, door AI aangedreven mensenzoeksysteem, na wat erg lang lijkt te hebben gewacht op wat een natuurlijk aanbod voor generatieve AI had moeten zijn.
Dit komt drie volle jaren na de lancering van ChatGPT en zes maanden nadat LinkedIn zijn door AI aangedreven aanbod voor het zoeken naar vacatures lanceerde. Voor technische leiders illustreert deze tijdlijn een belangrijke zakelijke les: het inzetten van generatieve AI in reële zakelijke contexten is een uitdaging, vooral op de schaal van 1,3 miljard gebruikers. Het is een langzaam en brutaal proces van pragmatische optimalisatie.
Het volgende account is gebaseerd op verschillende exclusieve interviews met het LinkedIn-product- en engineeringteam achter de lancering.
Ten eerste, hier is hoe het product werkt: een gebruiker kan nu een zoekopdracht in natuurlijke taal typen, zoals: “Wie weet er iets over de behandeling van kanker?” in de LinkedIn-zoekbalk.
De oude, op trefwoorden gebaseerde zoekopdracht van LinkedIn zou je verbijsterd hebben. Hij zocht alleen naar verwijzingen naar ‘kanker’. Als een gebruiker geavanceerder wil worden, zou hij strenge, afzonderlijke trefwoordzoekopdrachten moeten uitvoeren naar ‘kanker’ en vervolgens naar ‘oncologie’ en handmatig moeten proberen de resultaten samen te voegen.
Het nieuwe op AI gebaseerde systeem omvat echter de bedoeling van het onderzoek omdat de LLM onder de motorkap de semantische betekenis vastlegt. Er wordt bijvoorbeeld erkend dat ‘kanker’ conceptueel verband houdt met ‘oncologie’ en, nog minder direct, met ‘genomisch onderzoek’. Als resultaat hiervan ontstaat er een veel relevantere lijst van mensen, waaronder oncologieleiders en onderzoekers, ook al gebruiken hun profielen niet het exacte woord ‘kanker’.
Het systeem brengt deze relevantie ook in evenwicht nutsvoorziening. In plaats van eenvoudigweg de beste oncoloog ter wereld voor het voetlicht te brengen (die wellicht een onbereikbare derdegraads connectie is), zal het ook beoordelen wie in uw directe netwerk – zoals een eerstegraads connectie – ‘redelijk relevant’ is en kan dienen als een cruciale brug naar die expert.
Zie onderstaande video voor een voorbeeld.
Maar de belangrijkste les voor zakelijke professionals is ongetwijfeld het ‘kookboek’ dat LinkedIn heeft ontwikkeld: een repliceerbare, uit meerdere stappen bestaande pijplijn van destillatie, co-design en meedogenloze optimalisatie. LinkedIn moest het op het ene product perfectioneren voordat het op een ander product werd geprobeerd.
“Probeer niet te veel in één keer te doen”, schrijft Wenjing Zhang, vice-president engineering van LinkedIn, in een post over de productlancering en die vorige week ook met VentureBeat sprak in een interview. Hij merkt op dat een eerdere ‘uitgebreide ambitie’ om een uniform systeem voor alle LinkedIn-producten te bouwen ‘de vooruitgang tegenhield’.
In plaats daarvan concentreerde LinkedIn zich eerst op het veroveren van één branche. Het succes van de eerder gelanceerde AI-werkzoekende, die werkzoekenden zonder vierjarig diploma opleverde 10% meer kans om aangenomen te wordenvolgens vice-president productengineering Erran Berger leverde het het ontwerp.
Nu past het bedrijf dit project toe op een veel grotere uitdaging. “Het is één ding om dit in tientallen miljoenen banen te kunnen doen”, vertelde Berger aan VentureBeat. “Het is iets heel anders om het voor een miljard leden te doen.”
Voor zakelijke AI-ontwikkelaars biedt het LinkedIn-traject een technische handleiding voor wat u nodig heeft Eigenlijk noodzakelijk om van een succesvolle pilot naar een product op miljardengebruikersschaal te gaan.
De nieuwe uitdaging: een grafiek van 1,3 miljard leden
Het product voor het zoeken naar werk creëerde een solide recept waarop het nieuwe product voor het zoeken naar mensen kon voortbouwen, legde Berger uit.
Het recept begon met een ‘gouden dataset’ bestaande uit een paar honderd tot duizend paren echte zoekprofielen, minutieus geëvalueerd aan de hand van een gedetailleerd ‘productbeleid’-document van 20 tot 30 pagina’s. Om het op te schalen voor training, gebruikte LinkedIn deze kleine gouden set om een groot funderingsmodel te stimuleren om een enorm volume te genereren synthetisch trainingsgegevens. Deze synthetische gegevens werden gebruikt om a 7 miljard parameters “Productbeleid”-model: een high-fidelity relevantierechter die te traag was voor live productie, maar perfect voor het aanleren van kleinere modellen.
Het team liep echter al snel tegen een muur aan. Zes tot negen maanden lang worstelden ze met het trainen van één enkel model dat een evenwicht kon vinden tussen strikte beleidsnaleving (relevantie) en signalen van gebruikersbetrokkenheid. Het ‘aha-moment’ kwam toen ze beseften dat ze het probleem moesten oplossen. Ze hebben het 7B-beleidsmodel gedestilleerd tot een Lerarenmodel 1.7B uitsluitend gericht op relevantie. Vervolgens koppelden ze het aan afzonderlijke lerarenmodellen die waren getraind om specifieke acties van leden te voorspellen, zoals sollicitaties voor het functieproduct of verbinding en het volgen van zoekopdrachten naar mensen. Dit ‘multi-leraar’-ensemble produceerde zachte waarschijnlijkheidsscores die het uiteindelijke leerlingmodel leerde imiteren via KL-divergentieverlies.
De resulterende architectuur werkt als een pijplijn in twee fasen. Eerst een grotere Model met 8B-parameters zorgt voor breed ophalen en werpt een breed net uit om kandidaten uit de grafiek te halen. Daarom neemt het sterk gedestilleerde studentenmodel de plaats in van de fijnmazige classificatie. Hoewel het product voor het zoeken naar werk met succes is geïmplementeerd 0,6 miljard (600 miljoen) student-parameter vereiste het nieuwe People Search-product een nog agressievere compressie. Zoals Zhang opmerkt, heeft het team het nieuwe studentenmodel teruggebracht van 440 miljoen naar slechts 440 miljoen parameters 220Mhet bereiken van de snelheid die nodig is voor 1,3 miljard gebruikers met minder dan 1% verlies aan relevantie.
Maar door het toe te passen op mensenonderzoek werd de oude architectuur doorbroken. Het nieuwe probleem omvatte niet alleen dat classificatie maar ook herstel.
“Een miljard platen,” zei Berger, is een “ander beest.”
De vorige herstelstack van het team was CPU-gebaseerd. Om aan de nieuwe schaal- en latentievereisten van een ‘responsieve’ zoekervaring te kunnen voldoen, moest het team overstappen op indexering GPU-gebaseerde infrastructuur. Dit was een fundamentele architectonische verandering waarvoor het product voor het zoeken naar werk niet nodig was.
Vanuit organisatorisch perspectief heeft LinkedIn geprofiteerd van meerdere benaderingen. Een tijdlang had LinkedIn twee afzonderlijke teams — zoeken naar werk en zoeken naar mensen — proberen het probleem parallel op te lossen. Maar toen het zoekteam succes boekte met behulp van de op beleid gebaseerde destillatiemethode, ondernamen Berger en zijn leiderschapsteam actie. Ze brachten de architecten van de overwinning hierheen bij het zoeken naar werk — productmanager Rohan Rajiv en technisch manager Wenjing Zhang — om hun “kookboek” rechtstreeks naar het nieuwe domein te transplanteren.
Distillatie voor een productiviteitswinst van 10x
Toen het herstelprobleem eenmaal was opgelost, stond het team voor de uitdaging van classificatie en efficiëntie. Hier is het kookboek aangepast met nieuwe en agressieve optimalisatietechnieken.
Zhang’s technische positie (Ik zal de link plaatsen zodra deze is gepubliceerd) biedt specifieke details die ons AI-engineeringpubliek zal waarderen. Een van de belangrijkste optimalisaties was de invoergrootte.
Om het model kracht bij te zetten, werd het team gevormd een andere LLM met versterkend leren (RL) voor één doel: de invoercontext samenvatten. Dit “samenvattende” model kon de invoergrootte van het model verkleinen 20 keer met minimaal informatieverlies.
Het gecombineerde resultaat van het 220M-parametermodel en de 20x inputreductie? A 10x hogere rankingdoorvoerwaardoor het team het model efficiënt aan zijn grote gebruikersbasis kan aanbieden.
Pragmatisme in plaats van reclame: instrumenten bouwen, geen agenten
Tijdens onze discussies was Berger onvermurwbaar over iets anders dat de aandacht van mensen zou kunnen trekken: de echte waarde voor bedrijven vandaag de dag ligt in het perfectioneren van aanbevelingssystemen, en niet in het najagen van de ‘agenthype’. Hij weigerde ook te praten over de specifieke modellen die het bedrijf gebruikt voor onderzoek, wat suggereert dat ze er bijna niet toe doen. Het bedrijf selecteert modellen op basis van het model dat zij het meest efficiënt acht voor de uit te voeren taak.
De nieuwe AI-aangedreven zoektocht naar mensen is een uiting van Bergers filosofie dat het beter is om eerst het aanbevelingssysteem te optimaliseren. De architectuur omvat een nieuwe ‘intelligente queryrouteringslaag’, zoals Berger uitlegde, die zelf gebaseerd is op LLM. Deze router beslist pragmatisch of de zoekopdracht van een gebruiker, zoals ‘vertrouwde expert’, naar de nieuwe semantische en natuurlijke taalstapel moet gaan of naar de oude, vertrouwde lexicale zoekopdracht.
Het hele complexe systeem is ontworpen als een ‘hulpmiddel’ dat a toekomst het zal de agent gebruiken, niet de agent zelf.
“Agentic-producten zijn slechts zo goed als de tools die ze gebruiken om taken voor mensen uit te voeren”, zegt Berger. “Je kunt het beste redeneermodel ter wereld hebben en als je een agent probeert te gebruiken om mensen te zoeken, maar de mensenzoekmachine is niet erg goed, dan zul je geen resultaten kunnen leveren.”
Nu mensen zoeken beschikbaar is, suggereerde Berger dat het bedrijf op een dag agenten zal aanbieden om het te gebruiken. Maar hij gaf geen details over de timing. Hij zei ook dat het recept dat wordt gebruikt voor het zoeken naar vacatures en mensen, zal worden verspreid over de andere producten van het bedrijf.
Voor bedrijven die hun eigen AI-roadmaps maken, is het draaiboek van LinkedIn duidelijk:
-
Wees pragmatisch: Probeer de oceaan niet te koken. Win een handstand, ook al duurt het 18 maanden.
-
Codering van het “kookboek”: Zet deze overwinning om in een herhaalbaar proces (beleidsdocumenten, destillatiepijpleidingen, co-design).
-
Optimaliseer meedogenloos: Echte 10x inkomsten komen binnen Na het initiële model, in snoeien, distillatie en creatieve optimalisaties als een door RL getrainde samenvatting.
De reis van LinkedIn laat zien dat voor echte AI voor ondernemingen de nadruk op specifieke modellen of interessante agentsystemen op de achtergrond moet komen te staan. Strategisch en blijvend voordeel komt voort uit de beheersing van pijpleiding – het ‘native AI’-kookboek van co-design, destillatie en meedogenloze optimalisatie.
(Noot van de redactie: binnenkort publiceren we een volledige podcast met Erran Berger van LinkedIn, waarin deze technische details worden besproken, op de VentureBeat-podcastfeed.)


