Welkom bij NAAR DE Gedecodeerd, Snel bedrijfDe wekelijkse nieuwsbrief die het belangrijkste nieuws uit de wereld analyseert NAAR DE. Je kunt tekenen totdat u deze nieuwsbrief wekelijks per e-mail ontvangt Hier.
Is de “AI slop”-code hier om te blijven?
Een paar maanden geleden schreef ik erover De donkere kant van tools voor vibratiecodering: Ze genereren vaak code die bugs of beveiligingsproblemen introduceert die later naar voren komen. Ze kunnen een direct probleem oplossen, terwijl het in de loop van de tijd moeilijker wordt om een codebasis te onderhouden. Het is waar dat meer ontwikkelaars het gebruiken NAAR DE codeerassistenten en gebruik ze vaker en voor meer taken. Maar velen schijnen de tijd die vandaag wordt bespaard af te wegen tegen de schoonmaakwerkzaamheden waarmee ze morgen te maken kunnen krijgen.
Wanneer menselijke ingenieurs projecten bouwen met veel bewegende delen en afhankelijkheden, moeten ze een grote hoeveelheid informatie in hun hoofd bewaren en vervolgens de eenvoudigste en meest elegante manier vinden om hun plan uit te voeren. AI-modellen staan voor een soortgelijke uitdaging. Ontwikkelaars vertelden me eerlijk gezegd dat AI-coderingstools, waaronder Claude Code en Codex, het nog steeds moeilijk hebben als ze rekening moeten houden met grote hoeveelheden context in complexe projecten. Modellen kunnen belangrijke details uit het oog verliezen, de betekenis of implicaties van projectgegevens verkeerd interpreteren of planningsfouten maken die tot inconsistenties in de code leiden – allemaal dingen die een ervaren software-ingenieur zou kunnen ontdekken.
Meer geavanceerde AI-coderingstools beginnen nu pas test- en validatiemogelijkheden toe te voegen die proactief problematische code aan het licht kunnen brengen. Toen ik OpenAI-CEO Sam Altman tijdens een recente persconferentie vroeg of Codex steeds beter werd in het testen en valideren van gegenereerde code, was hij zichtbaar emotioneel. Altman zei dat OpenAI het idee leuk vindt om agenten in te zetten die achter ontwikkelaars werken, code valideren en potentiële problemen opsporen.
Codex kan zelfs tests uitvoeren op de code die het genereert of wijzigt, door testsuites uit te voeren in een sandbox-omgeving en te herhalen totdat de code voldoet aan de acceptatiecriteria die door de ontwikkelaar zijn gedefinieerd. Claude Code heeft ondertussen zijn eigen set validatie- en beveiligingsfuncties. Anthropic heeft ook test- en validatieroutines geïntegreerd in zijn Claude Code-product. Sommige ontwikkelaars zeggen dat Claude sterker is in het plannen en begrijpen van intenties op een hoger niveau, terwijl Codex beter is in het volgen van specifieke instructies en het matchen van een bestaande codebasis.
De echte vraag is misschien wat ontwikkelaars van deze AI-coderingstools mogen verwachten. Moeten ze worden gehouden aan de standaard van een junior ingenieur wiens werk fouten kan bevatten en een zorgvuldige beoordeling vereist? Of moet het niveau hoger? Misschien moet het doel niet alleen zijn om te voorkomen dat er ‘slop’-code wordt gegenereerd, maar ook om op te treden als een soort interne auditor, die door mensen geschreven slechte code identificeert en corrigeert.
Altman vindt dit idee leuk. Maar afgaande op de opmerkingen van een andere OpenAI-manager, Greg Brockman, is het niet duidelijk of het bedrijf gelooft dat de standaard volledig haalbaar is. Brockman, president van OpenAI, suggereert in a onlangs gepubliceerd Een reeks AI-coderingsrichtlijnen die zeggen dat AI-code ‘slop’ niet zozeer iets is dat moet worden geëlimineerd, maar eerder een realiteit die moet worden beheerd. “Het op grote schaal beheren van door AI gegenereerde code is een opkomend probleem en vereist nieuwe processen en conventies om de codekwaliteit hoog te houden”, schreef Brockman op X.
Saas-aandelen blijven lijden onder de “SaaSpocalypse” van vorige week.
Vorige week kelderden de aandelen van verschillende grote softwarebedrijven als gevolg van de groeiende bezorgdheid over kunstmatige intelligentie. De aandelenkoersen van ServiceNow, Oracle, Salesforce, AppLovin, Workday, Intuit, CrowdStrike, Factset Research en Thompson Reuters daalden zo scherp dat Wall Street-journalisten naar de gebeurtenis begonnen te verwijzen als “SaaSpocalyps.” De aandelenkoersen daalden scherp na twee nieuwsberichten. Eerst kondigde Anthropic laat op vrijdag 30 januari een reeks nieuwe AI-plug-ins aan voor zijn Cowork AI-tool, gericht op nieuwsprofessionals, inclusief functies voor juridisch, productbeheer, marketingen andere functies. Vervolgens presenteerde het bedrijf op 4 februari zijn krachtigste model: Vacature sluiten 4.6die nu de Claude-chatbot, Claude Code en Cowork aanstuurt.
Voor investeerders riepen de releases van Anthropic een beangstigende vraag op: hoe zullen old-school SaaS-bedrijven overleven als hun producten al worden uitgedaagd door native AI-tools?
Hoewel softwareaandelen de afgelopen week licht herstelden toen analisten geruststellend verspreidden dat veel van deze bedrijven nieuwe AI-functies in hun producten integreren, blijft het onbehagen bestaan. Veel van de hierboven genoemde aandelen moeten zich zelfs nog herstellen naar hun niveau van eind januari. (Sommige SaaS-spelers, zoals ServiceNunu gebruiken ze zelfs de modellen van Anthropic om hun eigen AI-mogelijkheden aan te sturen.)
Maar het is een teken des tijds, en investeerders zullen aandacht blijven besteden aan signalen dat bedrijven overstappen van traditionele SaaS-oplossingen naar nieuwe AI-apps of autonome agenten.
China verandert zijn videomodellen
Deze week is het erg moeilijk om een aantal nieuwkomers in de race om het beste model niet op te merken. X staat vol met berichten met video’s die zijn gegenereerd door de nieuwe Chinese videogeneratiemodellen:Zaaien 2.0 van ByteDans EN Kling 3.0 van Kuaishou. Het filmpje is indrukwekkend. Veel clips zijn moeilijk te onderscheiden van traditioneel beeldmateriaal, en beide tools maken het gemakkelijk om het uiterlijk van een scène te bewerken en te beheren. Door AI gegenereerde video’s worden eng goed, de belangrijkste beperking is dat de gegenereerde video’s nog steeds vrij kort zijn.
Kling 3.0 voorbeeldvideo’s, variërend van 3 tot 15 seconden, bieden vloeiende scène-overgangen en een verscheidenheid aan camerahoeken. Personages en objecten zien er consistent uit van scène tot scène, een kwaliteit waar videomodellen moeite mee hebben. De verbeteringen zijn gedeeltelijk te danken aan het vermogen van het model om de bedoelingen van de maker vast te leggen aan de hand van instructies, waaronder referentieafbeeldingen en video’s. Kling bevat ook native audiogeneratie, wat betekent dat het spraak, geluidseffecten, omgevingsaudio, lipsynchronisatie en dialoog met meerdere karakters in talloze talen, dialecten en accenten kan genereren.
ByteDance’s Seedance 2.0 genereert, net als Kling 3.0, video’s met meerdere scènes en meerdere camerahoeken, zelfs vanuit een enkele prompt. Eén video toonde een opname vanuit een Learjet tijdens de vlucht en een opname van buiten het vliegtuig. Videobewegingen zien er vloeiend en realistisch uit, met een goede karakterconsistentie tussen frames en scènes, zodat u complexe scènes met veel beweging, zoals gevechten, dansen en actiescènes, kunt verwerken. Seedance kan worden gestimuleerd met tekst, afbeeldingen, referentievideo’s en audio. En net als Kling kan Seedance gesynchroniseerde audio genereren, inclusief stemmen, geluidseffecten en lipsynchronisatie in meerdere talen.
Verhoogde AI-dekking van Snel bedrijf:
- Tenzij het tegendeel bewezen is, betreden we het tijdperk van kunstmatige intelligentie
- Een medeoprichter van Palantir steunt een groep die Alex Bores aanvalt vanwege zijn werk met . . . Palantir
- Waarom een Koreaanse filmdirecteur groot inzet op kunstmatige intelligentie
- Mozilla’s nieuwe AI-strategie markeert een terugkeer naar de wortels van zijn ‘rebellenalliantie’.
Wilt u exclusieve rapporten en trendanalyses over technologie, bedrijfsinnovatie, de toekomst van werk en design? Registratie Voor Snel bedrijf Onderscheiding.

