Home Nieuws Je hebt Sam Altman of zijn grote, mooie LLM niet nodig

Je hebt Sam Altman of zijn grote, mooie LLM niet nodig

24
0
Je hebt Sam Altman of zijn grote, mooie LLM niet nodig

We zijn hier eerder geweest.

Op zoveel cruciale momenten in de adoptie van digitale technologie verwarren mensen en bedrijven de ommuurde tuin van een bedrijf met het grotere, krachtigere netwerk eronder. In de jaren negentig geloofden veel mensen oprecht dat AOL het internet was. Toen ik in 2013 Facebook verliet, vroegen honderden mensen mij hoe ik zou functioneren ‘zonder internet’. Keer op keer overtreffen verpakte producten – besturingssystemen, app-winkels, streamingdiensten – stillere, goedkopere bottom-up-alternatieven zoals Linux of torrents. We vergeten dat ze bestaan.

Vandaag maken we dezelfde fout geweldige taalmodellen.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/adus-labs-16x 9-1.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/anduslabs.png”,”eyebrow” “headline” “Krijg meer inzichten van Douglas Rushkoff en Andus Labs. “dek” Blijf op de hoogte van de nieuwste trends in de manier waarop kunstmatige intelligentie wordt gebruikt. het opnieuw vormgeven van cultuur en zakendoen, door de kritische lens van menselijk handelen.”,”subhed”:”, “description”:”, “ctaText”:Lees meer, “ctaUrl”:https://www.anduslabs.com/perspectives”, thema”:{“bg”:#1a064b”, “text” nBg”#ffffff”, “buttonHoverBg”:91420530,”buttonText”:false,”slug””}}

Voor velen van ons “NAAR DE“Nu betekent het kiezen uit een handvol commerciële LLM’s zoals ChatGPT, Claudio, TweelingenOF Grok– en misschien zelfs degene kiezen die overeenkomt met onze culturele of politieke gevoeligheid. Maar deze systemen delen belangrijke structurele beperkingen: het zijn gecentraliseerde, dure en energie-intensieve operaties die afhankelijk zijn van enorme datacenters, zeldzame chips en eigen datastores. Omdat ze op min of meer hetzelfde openbare internet zijn getraind, hebben ze ook de neiging dezelfde algemene, afgevlakte resultaten te genereren. Bedrijven die ze op grote schaal gebruiken, vervangen vaak hun eigen expertise door recombinaties van wat al beschikbaar is.

Dit is hoe AI met bedrijven zal doen wat sociale media met publicaties deden en wat het vroege internet deed met retailers die zonder strategie online gingen. Als u dezelfde generieke tools gebruikt als alle anderen, krijgt u dezelfde generieke resultaten. Erger nog: het uitbesteden van belangrijke kennisprocessen aan een “black box”-dienst vervangt de langetermijnontwikkeling van interne capaciteiten (vooral junior medewerkers die leren door praktijkervaring) door goedkopere maar toekomst-eroderende automatisering.

De grenzen van gecentraliseerde AI

Commerciële taalmodellen zijn geoptimaliseerd voor algemeenheid en schaal. Deze omvang is indrukwekkend, maar zorgt voor reële beperkingen voor organisaties. Gecentraliseerde LLM’s vereisen:

  • Grote hoeveelheden trainingsgegevens opgehaald van het open web
  • Dure serverinfrastructuur en energieverbruik
  • Constante externe connectiviteit
  • Bedrijfsmodellen gebaseerd op abonnementen, nominale commissies of upselling

Voor veel bedrijven worden deze modellen een nieuwe afhankelijkheid van outsourcing. Elke keer dat een LLM van een bedrijf wordt bijgewerkt, wat wekelijks kan gebeuren, veranderen uw workflows onder u. Uw eigen gegevens kunnen worden blootgesteld aan API’s van derden. En uw differentiatie erodeert, omdat modelkennis wordt ontleend aan hetzelfde publieke corpus dat beschikbaar is voor uw concurrenten.

Ondertussen heeft het AI-verhaal bedrijven aangemoedigd te geloven dat dit gecentraliseerde pad het enige haalbare is: dat het bereiken van aanzienlijke AI-capaciteiten enorme datacentra, miljardentrainingen en deelname aan een mondiale race naar algemene AI-intelligentie vereist.

Maar dit alles is geen vereiste voor een productief gebruik van AI.

Er bestaat al een praktisch alternatief

Je hebt geen modellen op grensschaal nodig om van AI te kunnen profiteren. Een groeiend ecosysteem van open source en lokaal inzetbare taalmodellen geeft organisaties veel meer autonomie, privacy en controle.

Een Raspberry Pi van $ 100, of een bescheiden thuis- of kantoorserver, kan een compact open source-model draaien met behulp van tools als Ollama of GPT4All. Deze modellen ‘leren’ niet ‘onmiddellijk’ zoals mensen dat doen, maar ze kunnen antwoorden van hoge kwaliteit produceren terwijl ze volledig in hun omgeving blijven opgenomen. Belangrijker nog is dat ze met behulp van retrievalsystemen kunnen worden gekoppeld aan een particuliere kennisbank. Dit betekent dat het model kan verwijzen naar uw onderzoeksbibliotheek, interne documentatie of samengestelde openbare bronnen zoals Wikipedia, zonder training over het hele internet en zonder uw gegevens naar een externe provider te sturen.

Deze systemen vertrouwen op uw data in plaats van deze te ontginnen, versterken uw institutionele geheugen in plaats van deze te commoditiseren, en werken tegen een fractie van de kosten.

Deze aanpak stelt een organisatie in staat een AI-systeem te creëren dat aansluit bij haar echte prioriteiten, waarden en branche-expertise. Het wordt een privéassistent in plaats van een algemeen product dat wordt gevormd door de prikkels van een biljoenenplatform. En het alternatief hoeft geen eenzame inspanning te zijn.

Buurten, campussen of bedrijfsafdelingen kunnen een ‘mesh-netwerk’ vormen, een verzameling apparaten die rechtstreeks via Wi-Fi of kabels zijn verbonden in plaats van via het openbare internet. Een knooppunt kan een lokaal model hosten; anderen kunnen hun eigen gegevensopslag bijdragen of behouden. In plaats van dat één bedrijf de infrastructuur en kennis bezit, krijg je iets dat dichter bij een gemeenschappelijke datagemeenschap of digitaal bibliotheeksysteem komt.

Projecten zoals LoreKeeper’s Guild van het High Desert Institute experimenteren al met deze aanpak. Hun ‘Librarian’-initiatief ziet lokale bibliotheken als datahubs voor AI-systemen in mesh-netwerken, die veerkrachtig genoeg zijn om zelfs tijdens connectiviteitsverstoringen te functioneren. Maar hun meest diepgaande innovatie is architectonisch. Deze systemen geven organisaties toegang tot krachtige taalmogelijkheden zonder abonnementskosten, lock-ins, datamining of openbaarmaking van bedrijfseigen informatie.

Met lokale of gemeenschapsmodellen kunnen organisaties:

  • Zorg goed voor uw gegevens
  • Behoud volledige privacy door berekeningen ter plaatse bij te houden
  • Reduceer de latentie tot bijna nul
  • Behouden en versterken van interne vaardigheden
  • Vermijd terugkerende token- of API-kosten

En dat doen ze met behulp van energie- en computerbronnen die ordes van grootte kleiner zijn dan die vereist door modellen op grensschaal.

Waarom gedecentraliseerde AI nu belangrijk is

Hoe meer instellingen gelokaliseerde of mesh-gebaseerde AI adopteren, hoe minder ze gedwongen worden om gecentraliseerde bedrijven te financieren die in de richting van AGI racen. Deze bedrijven hebben een krachtig argument aangevoerd: dat geavanceerde kunstmatige intelligentie alleen mogelijk is via hun diensten. Maar veel van waar organisaties voor betalen, is niet van hen productiviteit– bouwt enorme serverparken, koopt zeldzame chips in en zet voor de lange termijn in op energie-intensieve infrastructuur.

Interne of door de gemeenschap beheerde systemen kunnen daarentegen één keer worden ingezet en voor onbepaalde tijd worden onderhouden. Eén week installatie kan tien jaar aan abonnementsbetalingen elimineren. Een kleine landelijke bibliotheek heeft de haalbaarheid van het runnen van een zelf-hostend LLM-knooppunt al aangetoond; een Fortune 500-bedrijf zou er geen probleem mee moeten hebben hetzelfde te doen.

De geschiedenis wijst er echter op dat de meeste organisaties de kosteneffectieve optie zullen verkiezen boven de op zichzelf staande optie. Er waren maar weinig mensen die rechtstreeks toegang hadden tot het vroege internet; ze kozen voor AOL. Tegenwoordig zullen velen blijven kiezen voor gecentraliseerde AI-diensten, zelfs als deze de minste controle bieden. Maar wat sociale-mediabedrijven deden met bedrijven die ze voor ‘het internet’ aanzagen, zal verbleken in vergelijking met wat er zal gebeuren als bedrijven deze propriëtaire interfaces voor ‘AI’ zelf aanzien.

Gedecentraliseerde AI bestaat al. De vraag is nu of we ervoor zullen kiezen om het te gebruiken.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/adus-labs-16x 9-1.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/anduslabs.png”,”eyebrow” “headline” “Krijg meer inzichten van Douglas Rushkoff en Andus Labs. “dek” Blijf op de hoogte van de nieuwste trends in de manier waarop kunstmatige intelligentie wordt gebruikt. het opnieuw vormgeven van cultuur en zakendoen, door de kritische lens van menselijk handelen.”,”subhed”:”, “description”:”, “ctaText”:Lees meer, “ctaUrl”:https://www.anduslabs.com/perspectives”, thema”:{“bg”:#1a064b”, “text” nBg”#ffffff”, “buttonHoverBg”:91420530,”buttonText”:false,”slug””}}

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in