Home Nieuws Vier AI-onderzoekstrends die bedrijfsteams in 2026 in de gaten moeten houden

Vier AI-onderzoekstrends die bedrijfsteams in 2026 in de gaten moeten houden

3
0
Vier AI-onderzoekstrends die bedrijfsteams in 2026 in de gaten moeten houden

Het AI-verhaal werd vooral gedomineerd door de prestaties van modellen ten opzichte van belangrijke industriële benchmarks. Maar naarmate de industrie volwassener wordt en bedrijven echte waarde proberen te halen uit de vooruitgang op het gebied van AI, zien we parallel onderzoek naar technieken die AI-toepassingen helpen produceren.

Bij VentureBeat volgen we AI-onderzoek dat kan helpen begrijpen waar de praktische implementatie van de technologie naartoe gaat. We zijn benieuwd naar doorbraken die niet alleen de ruwe intelligentie van een enkel model aanpakken, maar ook de manier waarop we de systemen eromheen ontwerpen. Nu we 2026 naderen, zijn hier vier trends die het sjabloon kunnen vormen voor de volgende generatie robuuste, schaalbare bedrijfsapplicaties.

Continu leren

Continu leren pakt een van de belangrijkste uitdagingen van de huidige AI-modellen aan: hen nieuwe informatie en vaardigheden aanleren zonder hun bestaande kennis te vernietigen (vaak aangeduid als “catastrofale vergeetachtigheid“).

Traditioneel zijn er twee manieren om dit probleem op te lossen. De eerste is om het model opnieuw te trainen met een mix van oude en nieuwe informatie, wat duur, tijdrovend en uiterst ingewikkeld is. Dit maakt het ontoegankelijk voor de meeste bedrijven die sjablonen gebruiken.

Een andere oplossing is om modellen van contextuele informatie te voorzien via technieken zoals RAG. Deze technieken actualiseren echter de interne kennis van het model niet, wat problematisch kan blijken als je de kennislimiet van het model overschrijdt en de feiten in conflict komen met wat waar was toen het model werd getraind. Ze vereisen ook veel techniek en worden beperkt door modelcontextvensters.

Door continu te leren kunnen modellen hun interne kennis bijwerken zonder dat ze opnieuw hoeven te trainen. Google heeft hieraan gewerkt met verschillende nieuwe sjabloonarchitecturen. Eén ervan is Titanendie een andere primitief voorstelt: een aangeleerde langetermijngeheugenmodule waarmee het systeem de historische context kan opnemen op het moment van gevolgtrekking. Intuïtief verschuift het een deel van het ‘leren’ van offline gewichtsupdates naar een online geheugenproces, dichter bij de manier waarop teams al denken over caches, indexen en logs.

Hope (links) gebruikt meerdere lagen van genest leren, terwijl Transformers (rechts) alleen interactie heeft tussen de aandachts- en feed-forward-netwerken (bron: Google)

Genest leren duwt hetzelfde thema vanuit een andere hoek. Het behandelt een model als een reeks geneste optimalisatieproblemen, elk met zijn eigen interne workflow, en gebruikt dat raamwerk om catastrofaal vergeten aan te pakken.

Standaard op transformatoren gebaseerde taalmodellen hebben dichte lagen die het langetermijngeheugen opslaan dat is verkregen tijdens de pre-training, en aandachtslagen die de onmiddellijke context bevatten. Nested Learning introduceert een ‘continu geheugensysteem’, waarbij geheugen wordt gezien als een spectrum van modules die op verschillende frequenties worden bijgewerkt. Hierdoor ontstaat een geheugensysteem dat beter is afgestemd op continu leren.

Continu leren is een aanvulling op het werk dat wordt gedaan om agenten te voorzien van kortetermijngeheugen door middel van context-engineering. Naarmate het volwassener wordt, kunnen bedrijven een generatie modellen verwachten die zich aanpassen aan veranderende omgevingen en dynamisch beslissen welke nieuwe informatie ze internaliseren en welke ze in het kortetermijngeheugen opslaan.

Mondiale modellen

Wereldmodellen beloven AI-systemen de mogelijkheid te geven hun omgeving te begrijpen zonder de noodzaak van door mensen gelabelde gegevens of door mensen gegenereerde tekst. Met wereldmodellen kunnen AI-systemen beter reageren op onvoorspelbare en niet-distributiegebeurtenissen en robuuster worden tegen onzekerheid in de echte wereld.

Belangrijker nog is dat wereldmodellen de weg vrijmaken voor kunstmatige-intelligentiesystemen die verder gaan dan alleen tekst en taken kunnen oplossen waarbij fysieke omgevingen betrokken zijn. Wereldmodellen proberen de regelmatigheden van de fysieke wereld rechtstreeks uit observatie en interactie te leren.

Er zijn verschillende benaderingen om wereldmodellen te creëren. DeepMind bouwt Genieeen familie van end-to-end generatieve modellen die een omgeving simuleren, zodat een agent kan voorspellen hoe de omgeving zal evolueren en hoe acties deze zullen veranderen. Het neemt een afbeelding of bericht samen met de acties van de gebruiker en genereert de reeks videoframes die weerspiegelen hoe de wereld verandert. Genie kan interactieve omgevingen creëren die voor verschillende doeleinden kunnen worden gebruikt, waaronder het trainen van robots en zelfrijdende auto’s.

Wereldlaboratoriaeen nieuwe startup opgericht door AI-pionier Fei-Fei Li, hanteert een iets andere aanpak. Marble, het eerste AI-systeem van World Labs, gebruikt generatieve AI om een ​​3D-model te creëren op basis van een afbeelding of prompt, dat vervolgens kan worden gebruikt door een natuurkunde- en 3D-engine om de interactieve omgeving die wordt gebruikt om robots te trainen weer te geven en te simuleren.

V-JEPA

V-JEPA-architectuur (bron: Meta FAIR)

Een andere benadering is de Joint Embedding Predictive Architecture (JEPA), die is overgenomen door Turing Award-winnaar en voormalig Meta AI-hoofd Yann LeCun. JEPA-modellen leren latente representaties van onbewerkte gegevens, zodat het systeem kan anticiperen op wat er daarna komt zonder elke pixel te genereren.

JEPA-modellen zijn veel efficiënter dan generatieve modellen, waardoor ze geschikt zijn voor snelle, realtime AI-applicaties die moeten draaien op apparaten met beperkte middelen. V-JEPADe videoversie van de architectuur is vooraf getraind in ongelabelde video op internetschaal om modellen van de wereld te leren door middel van observatie. Vervolgens voegt het een kleine hoeveelheid interactiegegevens uit de trajecten van de robot toe om de planning te ondersteunen. Deze combinatie suggereert een pad waarin bedrijven overvloedige passieve video (training, inspectie, dashcam, detailhandel) benutten en beperkte, hoogwaardige interactiegegevens toevoegen waar deze controle nodig hebben.

In de maand november, LeCun bevestigde dat hij Meta zal verlaten en zal een nieuwe kunstmatige intelligentie-startup lanceren die “systemen zal nastreven die in staat zijn de fysieke wereld te begrijpen, een persistent geheugen hebben, in staat zijn om reeksen van complexe acties te redeneren en te plannen”.

Orkestratie

Frontier LLM’s blijven vooruitgang boeken in zeer uitdagende benchmarks en overtreffen vaak menselijke experts. Maar als het gaat om taken in de echte wereld en workflows van agenten die uit meerdere stappen bestaan, falen zelfs de meest effectieve modellen: ze verliezen context, roepen tools aan met de verkeerde parameters en verergeren kleine fouten.

Orchestration behandelt deze storingen als systeemproblemen die met de juiste steigers en engineering kunnen worden opgelost. Een router kiest bijvoorbeeld tussen een klein en snel model, een groter model voor moeilijkere stappen, herstel voor aarding en deterministische hulpmiddelen voor acties.

Er zijn nu meerdere raamwerken die orkestratielagen creëren om de efficiëntie en nauwkeurigheid van AI-agenten te verbeteren, vooral bij het gebruik van externe tools. Die van Stanford OctoTools is een open source-framework dat meerdere tools kan orkestreren zonder de noodzaak om modellen te verfijnen of aan te passen. OctoTools maakt gebruik van een modulaire aanpak die een oplossing plant, tools selecteert en subtaken doorgeeft aan verschillende agenten. OctoTools kan elke generieke LLM als ruggengraat gebruiken.

Structuur van het orkest

Framework ToolOrchestra (bron: arXiv)

Een andere aanpak is het trainen van een gespecialiseerd orkestratormodel dat het werk kan verdelen over verschillende componenten van het AI-systeem. Een voorbeeld hiervan is dat van Nvidia Orchestratoreen parametermodel van 8 miljard dat meerdere tools en LLM’s coördineert om complexe problemen op te lossen. De orkestrator werd getraind via een speciale leertechniek voor versterking, ontworpen voor modelorkestratie. Het kan vertellen wanneer tools moeten worden gebruikt, wanneer taken moeten worden gedelegeerd aan kleine gespecialiseerde modellen, en wanneer de redeneervaardigheden en kennis van grote generalistische modellen moeten worden gebruikt.

Een van de kenmerken van deze en andere soortgelijke raamwerken is dat ze kunnen profiteren van de vooruitgang in de onderliggende modellen. Daarom kunnen we, nu we vooruitgang blijven zien in frontier-modellen, verwachten dat orkestratieframeworks zullen evolueren en bedrijven zullen helpen robuuste en hulpbronnenefficiënte agentische applicaties te bouwen.

Verfijning

Verfijningstechnieken maken van ‘een antwoord’ een gecontroleerd proces: voorstellen, bekritiseren, beoordelen en testen. Kadreer de workflow alsof u hetzelfde model gebruikt om initiële output te genereren, er feedback op te geven en deze iteratief te verbeteren, zonder aanvullende training.

Hoewel zelfverfijningstechnieken al een paar jaar bestaan, zijn we misschien op een punt aangekomen waarop we kunnen zien dat ze een stapsgewijze verandering teweegbrengen in agenttoepassingen. Dit kwam volledig tot uiting in de resultaten van de ARC Award, die 2025 definieerde “Jaar van de raffinagecyclus‘ en schreef: ‘Vanuit het perspectief van de informatietheorie is verfijning intelligentie.’

ARC test modellen op ingewikkelde abstracte redeneringspuzzels. ARC-analyse meldt dat de best geverifieerde verfijningsoplossing, gebouwd op een grensmodel en ontwikkeld door Poetiqhet bereikte 54% op de ARC-AGI-2 en versloeg de tweede plaats, Gemini 3 Deep Think (45%), voor de helft van de prijs.

De oplossing van Poetiq is een recursief, zichzelf verbeterend, LLM-onafhankelijk systeem. Het is ontworpen om uw redeneervaardigheden en kennis van het onderliggende model te benutten om na te denken over uw oplossing en deze te verfijnen, en indien nodig een beroep te doen op hulpmiddelen zoals codetolken.

Naarmate uw modellen sterker worden, kunt u door het toevoegen van niveaus van zelfverfijning er meer uit halen. Poetiq werkt al samen met partners om zijn metasysteem aan te passen om “de complexe problemen uit de echte wereld aan te pakken die grensmodellen moeilijk kunnen oplossen.”

Hoe AI-onderzoek in 2026 te volgen

Een praktische manier om het onderzoek het komende jaar te lezen, is door te kijken naar welke nieuwe technieken bedrijven kunnen helpen agentapplicaties te verplaatsen van proofs of concept naar schaalbare systemen.

Continu leren verschuift de nauwkeurigheid naar de herkomst en retentie van herinneringen. Wereldmodellen brengen dit in de richting van robuuste simulatie en voorspelling van gebeurtenissen in de echte wereld. Orkestratie brengt het in de richting van een beter gebruik van hulpbronnen. Verfijning brengt hem in de richting van intelligente reflectie en correctie van antwoorden.

De winnaars zullen niet alleen sterke modellen kiezen, maar zij zullen ook het controlevlak bouwen dat ervoor zorgt dat deze modellen correct, actueel en kosteneffectief blijven.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in