Het datalandschap is decennialang relatief statisch geweest. Relationele databases (hallo, Oracle!) waren de standaard en beheerde databases, waarbij informatie in bekende kolommen en rijen werd georganiseerd.
Die stabiliteit erodeerde toen daaropvolgende golven NoSQL-documentopslagplaatsen, grafische databases en, meer recentelijk, vectorgebaseerde systemen introduceerden. In het tijdperk van kunstmatige intelligentie is de data-infrastructuur opnieuw in beweging en evolueert sneller dan ooit tevoren.
Nu 2026 aanbreekt, is één les onontkoombaar geworden: data zijn belangrijker dan ooit.
RAG is dood. Lang leve de RAG
Misschien wel de belangrijkste trend van 2025 waarover tot in 2026 (en misschien ook daarna) zal worden gedebatteerd, is de rol van RAG’s.
Het probleem is dat de oorspronkelijke RAG-pijplijnarchitectuur sterk lijkt op de basiszoekopdracht. Bij het ophalen wordt het resultaat van een specifieke zoekopdracht op een specifiek tijdstip gevonden. Het is ook vaak beperkt tot één enkele gegevensbron, althans zo zijn RAG-pijplijnen in het verleden gebouwd (het verleden was vóór juni 2025).
Deze beperkingen hebben ertoe geleid dat een groeiende groep conga-verkopers beweert dat RAG op sterven ligt, op weg is naar de uitgang, of al dood.
Wat echter naar voren komt, zijn alternatieve benaderingen (zoals contextueel geheugen), evenals genuanceerde en verbeterde benaderingen van RAG. Snowflake heeft bijvoorbeeld onlangs zijn eigen aangekondigd analyse van agentuurdocumenten technologie, die de traditionele RAG-datapijplijn uitbreidt om analyse uit duizenden bronnen mogelijk te maken, zonder dat er eerst gestructureerde gegevens nodig zijn. Er zijn ook tal van andere RAG-achtige benaderingen in opkomst, waaronder GrafiekRAG waarvan het gebruik en de capaciteit waarschijnlijk pas in 2026 zullen toenemen.
Dus nu is RAG nog niet (helemaal) dood, althans nog niet. In 2026 zullen organisaties nog steeds gebruiksscenario’s tegenkomen waarbij gegevensherstel noodzakelijk is, en een verbeterde versie van RAG zal waarschijnlijk nog steeds geschikt zijn voor het beoogde doel. In 2026 moeten bedrijven use cases individueel evalueren. Traditionele RAG werkt voor het ophalen van statische kennis, terwijl geavanceerde benaderingen zoals GraphRAG zich aanpassen aan complexe zoekopdrachten uit meerdere bronnen.
Contextueel geheugen is de tabelinzet voor agent AI
Hoewel RAG in 2026 niet helemaal zal verdwijnen, is contextueel geheugen een benadering die het waarschijnlijk zal overtreffen in termen van gebruik voor agentische AI, ook bekend als agentisch geheugen of lange-contextgeheugen. Met deze technologie kunnen LLM’s relevante informatie gedurende langere perioden opslaan en openen.
In de loop van 2025 zijn er talloze van dergelijke systemen ontstaan, waaronder Hindsight, A-MEM-paneel, Algemeen agentisch geheugen (GAM), LangMem e Geheugenbasis. RAG blijft nuttig voor statische gegevens, maar het geheugen van agenten is van cruciaal belang voor adaptieve assistenten en AI-workflows van agenten die moeten leren van feedback, de status moeten behouden en zich in de loop van de tijd moeten aanpassen.
In 2026 zal contextueel geheugen niet langer een nieuwe techniek zijn; zal de inzet worden voor veel operationele implementaties van AI-agenten.
De gebruiksscenario’s voor speciaal gebouwde vectordatabases zullen veranderen
In het vroegmoderne tijdperk van generatieve AI waren speciaal gebouwde vectordatabases (zoals onder meer Pinecone en Milvus) een rage.
Om een LLM (meestal maar niet uitsluitend via RAG) toegang te geven tot nieuwe informatie, moet hij toegang hebben tot gegevens. De beste manier om dit te doen is door de gegevens in vectoren te coderen, wat een numerieke weergave is van wat de gegevens vertegenwoordigen.
Wat tegen 2025 pijnlijk duidelijk werd, was dat vectoren niet langer een specifiek databasetype waren, maar eerder een specifiek gegevenstype dat kon worden geïntegreerd in een bestaande database met meerdere modellen. Dus in plaats van van een organisatie te eisen dat ze een speciaal gebouwd systeem gebruikt, kunnen ze eenvoudigweg een bestaande database gebruiken die vectoren ondersteunt. Oracle ondersteunt bijvoorbeeld vectoren en hetzelfde geldt voor elke database die Google aanbiedt.
O, en het wordt beter. Amazon S3, nu al lang de feitelijke leider op het gebied van cloudgebaseerde objectopslag stelt gebruikers in staat vectoren op te slaanwaardoor de behoefte aan een speciale en unieke vectordatabase verder wordt ontkend. Dit betekent niet dat objectopslag vectorzoekmachines vervangt (prestaties, indexering en filtering zijn nog steeds van belang), maar het beperkt de reeks gebruiksscenario’s waarin gespecialiseerde systemen vereist zijn.
Nee, dat betekent niet dat speciaal gebouwde vectordatabases dood zijn. Net als bij RAG zullen er in 2026 gebruiksscenario’s blijven bestaan voor speciaal gebouwde vectordatabases. Wat zal veranderen is dat de gebruiksscenario’s waarschijnlijk iets kleiner zullen worden voor organisaties die de hoogste prestatieniveaus of specifieke optimalisatie nodig hebben die een generieke oplossing niet ondersteunt.
PostgreSQL ascendant
Als 2026 begint, wordt wat oud is weer nieuw. De open source PostgreSQL-database zal in 2026 veertig jaar oud zijn, maar zal relevanter zijn dan ooit tevoren.
In 2025 zal de suprematie van PostgreSQL als referentiedatabase voor het bouwen van elk type GenAI-oplossing het werd duidelijk. Snowflake heeft 250 miljoen dollar uitgegeven om Crunchy Data, een leverancier van PostgreSQL-databases, over te nemen; Databricks 1 miljard dollar uitgegeven op neon; en Supabase haalde een Series E van $ 100 miljoen op, wat een waardering van $ 5 miljard opleverde.
Al dat geld dient als een duidelijk signaal dat bedrijven in gebreke blijven bij PostgreSQL. Er zijn vele redenen, waaronder de open source-basis, flexibiliteit en prestaties. Voor vibe-codering (een belangrijk gebruiksvoorbeeld voor Supabase en Neon in het bijzonder) is PostgreSQL de standaard.
Verwacht een grotere groei en adoptie van PostgreSQL in 2026 naarmate meer organisaties tot dezelfde conclusies komen als Snowflake en Databricks.
Datawetenschappers zullen nieuwe manieren blijven vinden om reeds opgeloste problemen op te lossen
Er zal waarschijnlijk meer innovatie plaatsvinden om problemen op te lossen waarvan veel organisaties waarschijnlijk al aannemen dat ze opgeloste problemen zijn.
In 2025 hebben we talloze innovaties gezien, zoals het idee van een kunstmatige intelligentie die gegevens uit een ongestructureerde gegevensbron zoals een pdf kan analyseren. Dit is een mogelijkheid die al enkele jaren bestaat, maar het bleek lastiger om het op grote schaal te operationaliseren dan velen dachten. Databricks heeft nu een geavanceerde parser en andere leveranciers, waaronder Mistral, zijn met hun eigen verbeteringen op de markt gekomen.
Hetzelfde geldt voor vertaling van natuurlijke taal naar SQL. Hoewel sommigen misschien hadden aangenomen dat het probleem was opgelost, is dit feitelijk het geval bleef innovatie zien in 2025 en in 2026 zullen we er nog meer zien.
Het is van cruciaal belang dat bedrijven ook in 2026 waakzaam blijven. Ga er niet vanuit dat kernfuncties zoals parseren of natuurlijke taal in SQL volledig zijn opgelost. Het blijft nieuwe benaderingen evalueren die aanzienlijk beter zouden kunnen presteren dan bestaande instrumenten.
Acquisities, investeringen en consolidatie zullen doorgaan
2025 was een belangrijk jaar voor grote investeringen in dataproviders.
Half investeerde 14,3 miljard dollar bij leverancier van datalabels Scale AI; IBM heeft gezegd van plan te zijn een overname te doen datastreamingprovider Confluent voor $ 11 miljard; en Salesforce Ik heb Informatica gevolgd voor 8 miljard dollar.
Organisaties mogen verwachten dat het tempo van acquisities van elke omvang zich in 2026 zal voortzetten, nu grote leveranciers het cruciale belang van data voor het succes van agent AI beseffen.
De impact van overnames en consolidaties op bedrijven in 2026 is moeilijk te voorspellen. Het kan leiden tot leverancierslock-in en kan mogelijk ook leiden tot uitgebreide platformmogelijkheden.
In 2026 is het niet de vraag of bedrijven AI gaan gebruiken, maar of hun datasystemen dit kunnen ondersteunen. Naarmate agent AI volwassener wordt, zal een duurzame data-infrastructuur, en niet slimme suggesties of kortstondige architecturen, bepalen welke implementaties opschalen en welke stilletjes crashen.



