Home Nieuws MIT-filiaal Liquid AI brengt blauwdruk uit voor het trainen van modellen op...

MIT-filiaal Liquid AI brengt blauwdruk uit voor het trainen van modellen op klein ondernemingsniveau

12
0
MIT-filiaal Liquid AI brengt blauwdruk uit voor het trainen van modellen op klein ondernemingsniveau

Wanneer Liquid AI, een startup fopgericht door computerwetenschappers van MIT in 2023geïntroduceerd zijn Liquid Foundation Models series 2 (LFM2) in juli 2025het voorstel was simpel: zorg voor de snelste on-device basismodellen op de markt met behulp van de nieuwe ‘vloeibare’ architectuur, met training en inferentie-efficiëntie die kleine modellen tot een serieus alternatief maakten voor cloud-only Large Language Models (LLM) zoals OpenAI’s GPT-serie en Google’s Gemini.

De eerste release bevatte dichte checkpoints met 350M-, 700M- en 1.2B-parameters, een hybride architectuur die zwaar gewogen was op korte convoluties en poorten, en benchmarkcijfers die LFM2 een voorsprong gaven op concurrenten van vergelijkbare grootte, zoals Qwen3, Llama 3.2 en Gemma 3, zowel qua kwaliteit als CPU-doorvoer. De boodschap aan bedrijven was duidelijk: voor realtime, privacybeschermende AI op telefoons, laptops en voertuigen hoeft niet langer capaciteit te worden opgeofferd voor latentie.

In de maanden na die lancering breidde Liquid LFM2 uit naar een bredere productlijn gespecialiseerde varianten per taak en domeinA klein video-opname- en analysemodelen een edge-gerichte implementatiestack genaamd LEAP – en positioneerde de modellen als de controlelaag voor agentsystemen op apparaten en op locatie.

Nu, met de publicatie van het gedetailleerde LFM2-technische rapport van 51 pagina’s over arXivhet bedrijf gaat nog een stap verder: het openbaar maken van het architectuuronderzoeksproces, de mix van trainingsdata, de distillatiedoelstelling, de curriculumstrategie en de pijplijn na de training achter deze modellen.

En in tegenstelling tot eerdere open modellen is LFM2 gebouwd rond een herhaalbaar recept: een hardware-in-the-loop zoekproces, een trainingsprogramma dat kleinere parameterbudgetten compenseert, en een pijplijn na de training die is geoptimaliseerd voor het volgen van instructies en het gebruik van tools.

In plaats van eenvoudigweg gewichten en een API aan te bieden, publiceert Liquid feitelijk een gedetailleerde blauwdruk die andere organisaties als referentie kunnen gebruiken om hun eigen kleine, efficiënte modellen helemaal opnieuw te trainen, afgestemd op hun eigen hardware en implementatiebeperkingen.

Een reeks modellen die zijn ontworpen rond echte beperkingen, niet op basis van GPU-labs

Het technische rapport begint met een uitgangspunt waar bedrijven zeer bekend mee zijn: echte AI-systemen bereiken hun grenzen lang voordat benchmarks dat doen. Latentiebudgetten, maximale geheugenpieken en thermische beperking bepalen wat daadwerkelijk in productie kan worden uitgevoerd, vooral op laptops, tablets, standaardservers en mobiele apparaten.

Om dit probleem aan te pakken, voerde Liquid AI architectuuronderzoek rechtstreeks uit op doelhardware, waaronder mobiele Snapdragon-SoC’s en Ryzen-laptop-CPU’s. Het resultaat is een consistent resultaat over alle dimensies heen: een minimale hybride architectuur die wordt gedomineerd door gated korte convolutieblokken en een klein aantal pas op voor gegroepeerde zoekopdrachten (GQA) lagen. Dit ontwerp werd herhaaldelijk verkozen boven meer exotische SSM- en lineaire focus-hybriden, omdat het een Pareto-profiel met betere latentie-geheugen opleverde onder reële apparaatomstandigheden.

Dit is op drie manieren belangrijk voor zakelijke teams:

  1. Voorspelbaarheid. De architectuur is eenvoudig, parameterefficiënt en stabiel voor modellen met een grootte van 350 miljoen tot 2,6 miljard.

  2. Operationele draagbaarheid. De Dense- en MoE-varianten delen dezelfde structurele ruggengraat, waardoor de implementatie op gemengde hardwarevloten wordt vereenvoudigd.

  3. Haalbaarheid op het apparaat. In veel gevallen presteert de precompilatie- en decoderingsdoorvoer op CPU’s ongeveer dubbel zo goed als vergelijkbare open modellen, waardoor de noodzaak om routinetaken over te dragen naar cloud-inferentie-eindpunten wordt verminderd.

In plaats van te optimaliseren voor academische nieuwigheid, leest het rapport als een systematische poging om modellen te ontwerpen die bedrijven kunnen gebruiken eigenlijk schip.

Dit is opmerkelijk en praktischer voor bedrijven in een veld waar veel open modellen tijdens inferentie veilig toegang veronderstellen tot multi-H100-clusters.

Een trainingspijplijn die is geoptimaliseerd voor bedrijfsrelevant gedrag

LFM2 hanteert een trainingsaanpak die de kleinschaligheid van zijn modellen compenseert met structuur in plaats van met brute kracht. Belangrijke elementen zijn onder meer:

  • Voortraining met 10–12T-tokens en nog een Mid-trainingsfase in de 32K-contextwaardoor het bruikbare contextvenster van het model wordt uitgebreid zonder de rekenkosten aanzienlijk te verhogen.

  • A ontkoppelde Top-K kennisdistillatiedoelstelling dit omzeilt de instabiliteit van KL’s standaarddestillatie wanneer leraren slechts gedeeltelijke logits verstrekken.

  • A driefasige post-workoutsequentie—SFT, lengte-genormaliseerde voorkeursuitlijning en modelfusie, ontworpen om betrouwbaarder gedrag te produceren bij het volgen van instructies en het gebruik van tools.

Voor zakelijke AI-ontwikkelaars is het belang dat LFM2-modellen zich minder gedragen als ‘kleine LLM’s’ en meer als praktische agenten die gestructureerde formaten kunnen volgen, zich aan JSON-schema’s kunnen houden en chatstromen met meerdere beurten kunnen afhandelen. Veel open modellen van vergelijkbare grootte falen niet vanwege een gebrek aan redeneervermogen, maar vanwege een slechte naleving van instructiemodellen. Het LFM2 post-workoutrecept richt zich rechtstreeks op deze scherpe randen.

Met andere woorden: vloeibare AI optimaliseerde kleine modellen voor operationele betrouwbaarheidniet alleen scoreborden.

Multimodaliteit ontworpen voor apparaatbeperkingen, niet voor laboratoriumdemonstraties

De LFM2-VL- en LFM2-Audio-varianten weerspiegelen een andere verandering: gebouwd rond multimodaliteit symbolische efficiëntie.

In plaats van een enorme vision-transformator rechtstreeks in een LLM in te bedden, verbindt de LFM2-VL een SigLIP2-encoder via een connector die het aantal visuele tokens agressief vermindert via PixelUnshuffle. Invoer met hoge resolutie maakt automatisch dynamisch tegelen mogelijk, waardoor tokenbudgetten zelfs op mobiele hardware beheersbaar blijven. LFM2-Audio gebruikt een gesplitst audiopad, één voor inbedding, één voor generatie, en ondersteunt real-time transcriptie of tekst-naar-spraak op bescheiden CPU’s.

Voor enterprise-platformarchitecten wijst dit project op een praktische toekomst waarin:

  • het begrijpen van documenten vindt rechtstreeks plaats op eindpunten zoals veldapparatuur;

  • audiotranscriptie en stemagenten worden lokaal uitgevoerd om de privacy te respecteren;

  • Multimodale agenten werken binnen vaste latentie-enveloppen zonder gegevens van het apparaat te streamen.

Het resultaat is hetzelfde: multimode-functionaliteit zonder dat een GPU-farm nodig is.

Ophaalmodellen die zijn gebouwd voor agentsystemen, niet voor verouderde zoekopdrachten

LFM2-ColBERT breidt het herstel van late interactie uit in een ruimte die klein genoeg is voor bedrijfsimplementaties die meertalige RAG’s nodig hebben, zonder de overhead van gespecialiseerde vector-DB-versnellers.

Dit is vooral van belang nu organisaties een vloot agenten beginnen te orkestreren. Snel lokaal ophalen, dat op dezelfde hardware draait als het redeneringsmodel, vermindert de latentie en biedt een governancevoordeel: documenten verlaten nooit de apparaatgrens.

Alles bij elkaar laten de VL-, Audio- en ColBERT-varianten de LFM2 zien als een modulair systeem, en niet als een enkel model.

De opkomende blauwdruk voor hybride enterprise AI-architecturen

Alle variaties in ogenschouw genomen, schetst het LFM2-rapport impliciet hoe de zakelijke AI-stack van morgen eruit zal zien: hybride on-premise cloudorkestratiewaar kleine, snelle modellen die op apparaten werken, tijdkritische perceptie-, opmaak-, toolaanroep- en beoordelingstaken afhandelen, terwijl grotere modellen in de cloud indien nodig zware redeneringen leveren.

Hier komen verschillende trends samen:

  • Kostenbeheersing. Door routinematige gevolgtrekkingen lokaal uit te voeren, vermijdt u onvoorspelbare cloudfacturering.

  • Latentiedeterminisme. TTFT en decoderingsstabiliteit zijn belangrijk in de workflows van agenten; op het apparaat elimineert netwerkjitter.

  • Bestuur en naleving. Lokale uitvoering vereenvoudigt het PII-beheer, de opslag van gegevens en de controleerbaarheid.

  • Weerstand. Agentische systemen gaan doorgaans achteruit als het cloudpad niet meer beschikbaar is.

Bedrijven die deze architecturen adopteren, zullen kleine modellen op apparaten waarschijnlijk beschouwen als het ‘controlevlak’ van agentworkflows, terwijl grote cloudmodellen dienen als on-demand versnellers.

LFM2 is tot nu toe een van de duidelijkste open source-fundamenten voor dat niveau van controle.

Het strategische punt: AI op het apparaat is nu een ontwerpkeuze, geen afweging

Organisaties die AI-capaciteiten ontwikkelen, hebben jarenlang geaccepteerd dat ‘echte AI’ cloudgevolgtrekking vereist. LFM2 betwist deze veronderstelling. De modellen presteren competitief op het gebied van redeneren, het volgen van instructies, meertalige taken en RAG, terwijl ze aanzienlijke latentiewinsten behalen ten opzichte van andere open families van kleine modellen.

Voor CIO’s en CTO’s die de roadmaps voor 2026 finaliseren, is de implicatie direct: Kleine, open modellen op het apparaat zijn nu robuust genoeg om aanzienlijke delen van de productiewerklast te ondersteunen.

LFM2 zal frontier-cloudmodellen voor redeneren op grensschaal niet vervangen. Maar het biedt iets waar bedrijven aantoonbaar meer van nodig hebben: een reproduceerbare, open en operationeel haalbare basis voor agentsystemen die overal moeten werkenvan telefoons tot industriële eindpunten tot beveiligde faciliteiten met luchtspleten.

In het groeiende landschap van zakelijke AI is LFM2 niet zozeer een onderzoeksmijlpaal, maar eerder een teken van architectonische convergentie. De toekomst is niet cloud of edge: het zijn beide, die samenwerken. En releases als LFM2 bieden de bouwstenen voor organisaties die klaar zijn om die hybride toekomst opzettelijk in plaats van per ongeluk op te bouwen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in