Home Nieuws Black Forest Labs lanceert open source Flux.2 (klein) om in minder dan...

Black Forest Labs lanceert open source Flux.2 (klein) om in minder dan een seconde AI-afbeeldingen te genereren

2
0
Black Forest Labs lanceert open source Flux.2 (klein) om in minder dan een seconde AI-afbeeldingen te genereren

De Duitse kunstmatige intelligentie-startup Black Forest Labs (BFL), opgericht door voormalige Stability AI-ingenieursblijft zijn suite van open source AI-beeldgeneratoren ontwikkelen met de release van FLUX.2 (klein)een nieuw paar kleine modellen – een open en een niet-commercieel – die de nadruk leggen op snelheid en lagere verwerkingsvereisten, waarbij de modellen afbeeldingen genereren in minder dan een seconde op een Nvidia GB200.

De (kleine) serie, die gisteren werd vrijgegeven, omvat twee primaire parametertellingen: 4 miljard (4B) en 9 miljard (9B).

Modelgewichten zijn verkrijgbaar op Knuffelend gezicht en actieve code Github.

Terwijl de grotere modellen van de FLUX.2-familie ((max) en (pro)), uitgebracht in november 2025zoekt de grenzen op van fotorealisme en ‘ground search’-mogelijkheden, (klein) is specifiek ontworpen voor consumentenhardware en latentie-kritieke workflows.

Goed nieuws voor bedrijven is dat versie 4B beschikbaar is onder een Apache 2.0-licentie, wat betekent dat zij – of welke organisatie of ontwikkelaar dan ook – de (kleine) modellen voor hun commerciële doeleinden kunnen gebruiken zonder een cent te betalen aan BFL of enige tussenpersoon.

Er zijn echter tal van beeldcreatie- en AI-mediaplatforms inbegrepen Fal.ai ze begonnen het ook tegen extreem lage kosten aan te bieden via hun application programming interfaces (API’s) en als een direct-to-user tool. Het heeft al veel lof ontvangen van early adopters vanwege zijn snelheid. Wat het mist aan algehele beeldkwaliteit, lijkt het goed te maken met zijn vermogen tot snelle generatie, open licenties, betaalbaarheid en kleine footprint, wat ten goede komt aan bedrijven die beeldmodellen op hun eigen hardware of tegen extreem lage kosten willen draaien.

Dus hoe heeft BFL het gedaan en hoe kan het u helpen? Lees verder voor meer informatie.

De “Pareto-grens” van latentie

De technische filosofie achter (klein) is wat de BFL-documentatie beschrijft als het definiëren van de “Pareto-grens” voor kwaliteit versus latentie. In eenvoudige bewoordingen probeerden ze zoveel mogelijk visuele betrouwbaarheid in een model te stoppen dat klein genoeg was om zonder merkbare vertraging op een gaming-pc thuis te draaien.

Prestatiestatistieken die door het bedrijf zijn vrijgegeven, schetsen het beeld van een model dat is gebouwd voor interactiviteit in plaats van voor het eenvoudig genereren van batches.

Volgens officiële gegevens van Black Forest Labs zijn de (kleine) modellen in staat om op moderne hardware in minder dan 0,5 seconde afbeeldingen te genereren of te bewerken.

Zelfs op standaard consumenten-GPU’s zoals een RTX 3090 of 4070 is het 4B-model ontworpen om comfortabel ongeveer 13 GB VRAM te bevatten.

Deze snelheid wordt bereikt door ‘destillatie’, een proces waarbij een groter, complexer model een kleiner, efficiënter model ‘leert’ om de resultaten in minder stappen te benaderen. De gedestilleerde (klein) varianten vereisen slechts vier stappen om een ​​beeld te genereren. Dit transformeert het generatieproces effectief van een koffiepauze-activiteit naar een vrijwel onmiddellijke activiteit, waardoor wat BFL op X (voorheen Twitter) beschrijft als “idee-ontwikkeling van 0 → 1” in realtime mogelijk wordt gemaakt.

Onder de motorkap: uniforme architectuur

Historisch gezien waren voor het genereren en bewerken van afbeeldingen vaak verschillende pijplijnen of complexe adapters nodig (zoals ControlNet). FLUX.2 (klein) probeert ze te verenigen.

De architectuur ondersteunt standaard tekst-naar-afbeelding-conversie, bewerking van enkele referenties en compositie van meerdere referenties zonder dat modellen hoeven te worden verwisseld.

Volgens de documentatie die op GitHub is vrijgegeven, ondersteunen de sjablonen:

  • Meerdere referenties bewerken: Gebruikers kunnen maximaal vier referentieafbeeldingen uploaden (of tien op de speelplaats) om de stijl of structuur van de uitvoer te bepalen.

  • Hex-code kleurcontrole: Een vaak voorkomend pijnpunt voor ontwerpers is het verkrijgen van ‘precies die tint rood’. Nieuwe sjablonen accepteren specifieke hexadecimale codes in aanwijzingen (bijvoorbeeld #800020) om een ​​nauwkeurige kleurweergave te forceren.

  • Gestructureerde suggesties: Het model parseert JSON-achtige gestructureerde invoer voor strikt gedefinieerde composities, een functie die duidelijk gericht is op programmatische generatie en bedrijfspijplijnen.

De licentiekloof: open gewichten versus open source

Voor startups en ontwikkelaars die gebruik maken van BFL-technologie is het begrijpen van het licentielandschap van deze release van cruciaal belang. BFL heeft een gesplitste strategie aangenomen die het gebruik van ‘hobbyisten/onderzoekers’ scheidt van ‘commerciële infrastructuur’.

  1. FLUX.2 (klein) 4B: Uitgebracht onder Apache 2.0. Dit is een vrije softwarelicentie die commercieel gebruik, wijziging en herdistributie mogelijk maakt. Als u een betaalde app, SaaS-platform of game bouwt waarin AI-generatie is geïntegreerd, kunt u het royaltyvrije 4B-model gebruiken.

  2. FLUX.2 (klein) 9B & (ontwikkelaar): Uitgegeven onder de niet-commerciële licentie van FLUX. Deze gewichten mogen door onderzoekers en hobbyisten worden gedownload en ermee worden geëxperimenteerd, maar mogen zonder afzonderlijke overeenkomst niet voor commerciële toepassingen worden gebruikt.

Dit onderscheid positioneert het 4B-model als een directe concurrent van andere open-weights-modellen zoals Stable Diffusion 3 Medium of SDXL, maar met een modernere architectuur en tolerante licenties die juridische onduidelijkheid voor startups wegnemen.

Ecosysteemintegratie: ComfyUI en meer

BFL is zich er duidelijk van bewust dat een model slechts zo goed is als de gereedschappen waarmee het wordt aangedreven. Samen met de sjabloonrelease heeft het team officiële workflowsjablonen uitgebracht voor Comfortabelde knooppuntgebaseerde interface die de standaard geïntegreerde ontwikkelomgeving (IDE) voor AI-kunstenaars is geworden.

Werkstromen, specifiek image_flux2_klein_text_to_image.json en Varianten wijzigen: Sta gebruikers toe nieuwe functies onmiddellijk naar bestaande pijplijnen te slepen en neer te zetten.

De reactie van de gemeenschap op sociale media was gericht op deze workflowintegratie en snelheid. In een bericht op

Waarom het belangrijk is voor AI-gerelateerde zakelijke besluitvormers

De release van FLUX.2 (klein) markeert een volwassenheid in de generatieve AI-markt, die voorbij de initiële nieuwigheidsfase gaat naar een periode die wordt bepaald door nut, integratie en snelheid.

Voor Lead AI Engineers die voortdurend jongleren met de noodzaak om snelheid en kwaliteit in evenwicht te brengen, is deze verschuiving van cruciaal belang. Deze professionals, die de gehele levenscyclus van modellen beheren, van datavoorbereiding tot implementatie, worden vaak geconfronteerd met de dagelijkse uitdaging om snel evoluerende tools in bestaande workflows te integreren.

De beschikbaarheid van een gedestilleerd 4B-model onder de Apache 2.0-licentie biedt een praktische oplossing voor degenen die zich richten op snelle implementatie en afstemming om specifieke zakelijke doelstellingen te bereiken, waardoor ze latentieknelpunten kunnen omzeilen die doorgaans het genereren van hifi-beelden teisteren.

Voor senior AI-ingenieurs die zich richten op orkestratie en automatisering zijn de implicaties even groot. Deze experts zijn verantwoordelijk voor het bouwen van schaalbare AI-pijplijnen en het handhaven van de modelintegriteit in verschillende omgevingen, waarbij ze vaak onder strikte budgetbeperkingen werken.

Het lichtgewicht karakter van de (kleine) familie is een directe oplossing voor de uitdaging van het implementeren van efficiënte systemen met beperkte middelen. Door een model te gebruiken dat kan worden geschaald naar VRAM van consumentenkwaliteit, kunnen orkestratiespecialisten kosteneffectieve lokale inferentiepijplijnen ontwerpen die de hoge operationele kosten vermijden die gepaard gaan met enorme bedrijfseigen modellen.

Zelfs voor de IT-beveiligingsdirecteur biedt de overstap naar capabele, lokaal uitvoerbare open-weight-modellen een duidelijk voordeel. Als u uw organisatie moet beschermen tegen cyberdreigingen en beveiligingsoperaties moet beheren met beperkte middelen, kan het vertrouwen op externe API’s voor gevoelige creatieve workflows een kwetsbaarheid vormen.

Een hoogwaardig model dat lokaal draait, stelt beveiligingsleiders in staat de AI-tools te autoriseren die bedrijfseigen gegevens binnen de firewall van het bedrijf houden, waardoor de operationele behoeften van het bedrijf in evenwicht worden gebracht met de robuuste beveiligingsmaatregelen die ze moeten handhaven.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in