In de wereld van winstrapporten en presentaties is dit het ultieme doel van ons heden NAAR DE boom wordt meestal zoiets genoemd algemene kunstmatige intelligentie (AGI), superintelligentieof – als je echt een nerd bent –Zelfverbeterende recursieve AI. Maar in de echte wereld zijn we allemaal gewoon op zoek naar de Enterprise-computer: een digitale assistent waarmee je kunt praten, die je niet alleen volledig begrijpt, maar ook meteen dingen voor je kan doen.
De afgelopen twee maanden is er op dit vlak veel vooruitgang geboekt. Tijdens de CES woonde ik de keynote van Lenovo bij, waarin Qira werd geïntroduceerd, een apparaat dat altijd aan staat NAAR DE die in de toekomst in zijn apparaten zal worden geïntegreerd. ALS Ik schreef erover op The Media CopilotDe innovatie van Qira is dat de assistent nu een “agent Orchestrator” is, die de gebruiker doorschakelt naar andere diensten zoals ChatGPT, Perplexity of andere, afhankelijk van het verzoek van de gebruiker.
De reden dat een apparaatfabrikant als Lenovo dit kan doen, is omdat het niet concurreert met dergelijke diensten: Qira is een enabler, geen AI-service die alles doet. Het lijkt erop dat zelfs Apple deze strategie eindelijk heeft opgemerkt nu het zover is een meerjarige overeenkomst aangekondigd om de Gemini-modellen van Google later dit jaar te integreren in een vernieuwde Siri.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/media-copilot.png”, “imageMobileUrl”:https ://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/fe289316- bc4f-44ef-96bf-148b3d8578c1_1440x1440.png”,”eyebrow””,”title”:u003Cstrongu003EAbonneer u op The Media Copilotu003C/strongu003E”,”dek”Wilt u meer weten over hoe kunstmatige intelligentie de media verandert? Mis nooit meer een update van Pete Pachal door u te abonneren op The Media Copilot meer bezoek: u003Ca href=u0022https://mediacopilot.substack.com/u0022u003Emediacopilot.substack.comu003C/au003E”,”subhed:”,”description:”,”ctaText:SIGN. UP”, ctaUrl “https://mediacopilot.substack.com/”, thema”:{“bg”:{“bg”:#f5f5f5″, “text”:#000000″, “eyebrow”:#9aa2aa”, “subhed”:#ffffff”, “buttonBg tray#000000″,”buttonHoverBg”#3b3f46″,”buttonText”#ffffff”},”imageDesktopId”:91453847,”imageMobileId”:91453848,”shareable”:false,”slug””}}
Apple heeft de afgelopen twee jaar enorme beloftes gedaan en te weinig waargemaakt op het gebied van AI, deels vanwege de onwil om voor een deel van zijn AI-expertise op partners te vertrouwen. Nu er meer duidelijkheid is over de visie van de orkestrator enzovoort hoe AI’s met elkaar praten– het lijkt erop dat we de zorgen over de versterking van de concurrentie hebben overwonnen.
Assistenten evolueren naar agenten
Agentische tools zoals Code Claudio EN Claudio-medewerker. De buzz rond deze tools in de AI-wereld is waanzinnig geweest, en een groot deel van de reden is dat ze zoveel meer kunnen dan alleen coderen en websites bouwen. Het zijn in feite agenten die instructies kunnen aannemen, deze in plannen kunnen omzetten en deze vervolgens kunnen uitvoeren, vaak met minimale begeleiding van de gebruiker. Of het nu in het besturingssysteem (Qira/Siri) of een desktop-app (Cowork) is, het effect is hetzelfde: de besluitvorming komt dichter bij de interface die mensen daadwerkelijk gebruiken.
Meerdere mensen OP X ze zeggen dat de ervaring met Coworker dichter bij het werken met een collega ligt dan bij het inschakelen van kunstmatige intelligentie. Maar er zijn ook nieuwe zorgen: Anthropic waarschuwt gebruikers voor veiligheidsrisico’s, zoals onduidelijke instructies die leiden tot het verwijderen van bestanden, want dat is wat er gebeurt als het model kan handelen en niet alleen maar kan praten.
Dit alles gaat in dezelfde richting. Binnenkort lijkt het waarschijnlijk dat een aanzienlijk en groeiend aantal apparaatinteracties agenten in wezen zal vertellen wat ze moeten doen. Geen apps, geen browsers – alleen het antwoord, de uitvoer of het resultaat waarnaar u op zoek was. Het is de computer van de Enterprise, niet alleen op het dek van een ruimteschip, maar in miljoenen zakken over de hele wereld.
De gevolgen voor media, merken en andere contentaanbieders zijn enorm. In mijn stuk over Qira vertelde ik hoe strijd om de context zal het komende jaar in de informatieruimte plaatsvinden, maar agent-gebaseerd werk zal ook een effect hebben op het informatie-gebaseerd werk zelf, met name op de journalistiek. Het inbedden van een agent, in wezen een besluitvormingscomputer, in uw werkruimte is potentieel een enorme versneller, maar roept lastige vragen op over attributie, toegang en hoe deze met gevoelige gegevens omgaat.
Testbaarheid in het agententijdperk
Dit klinkt als een serieuze zaak, en er is een eenvoudige oplossing voor deze problemen: gebruik het niet. Maar dit is geen strategie. Zoals elk hulpmiddel zullen degenen die het leren, gebruiken en beheersen een voordeel hebben ten opzichte van degenen die dat niet doen. Naarmate het werken met agenten steeds populairder wordt, zullen werkplekken die begrijpen hoe ze dit veilig kunnen implementeren de beste kans op succes hebben.
De media hebben het echter bijzonder moeilijk, aangezien informatie hun zaak is. We hebben dit fenomeen al gezien met betrekking tot hallucinaties. De neiging van kunstmatige intelligentiesystemen om dingen uit het niets te verzinnen blijft voortbestaanen het verhindert dat veel redactiekamers AI adopteren, tenminste op een manier die met de inhoud te maken heeft.
Het gevaar van een officier op de werkplek is verraderlijker. AI creëert zelf geen inhoud, maar neemt beslissingen over welke informatiebronnen moeten worden gebruikt, welke diensten moeten worden gebruikt bij een taak en welke bedrijfskennis moet worden toegepast op een specifiek verzoek. Maar als een agent beslissingen moet nemen in een redactiekamer, mag dat geen black box zijn.
Zelfs zonder dat AI zelf fouten maakt, is de vraag hoe AI haar beslissingen neemt belangrijk. Kijk naar het onderzoeksgevolg: Wanneer Google heeft een deal gesloten met Redditwat ertoe leidde dat Reddit bovenaan veel andere zoekresultaten verscheen. Dit heeft ongetwijfeld invloed gehad op de manier waarop mensen aan hun informatie kwamen, vooral omdat Google een effectief monopolie heeft op het gebied van zoeken.
Welnu, een apparaat of agent op de werkplek zal een soortgelijk monopolie hebben. Hoe een agent door de beslissingsboom beweegt, kan geen black box zijn. Het is zeker een voor de hand liggende eerste stap om werknemers naar geautoriseerde zakelijke diensten en software te verwijzen. Het volgen van stijlgidsen en het bedrijfsbeleid bij de ondernomen acties is een ander verhaal. Maar het zijn de delen van de workflows die hier niet onder vallen, waardoor dingen raar worden. Het gaat niet alleen om het verkrijgen van informatie: het gaat om de context waarop u vertrouwt wanneer u handelt.
De behoefte aan AI-governance
Hoewel de acties voor de gebruiker naadloos moeten zijn, moet er wel een controleerbaar papieren spoor voor zijn. Hoe de agent context uit het web haalt en van welke diensten moet duidelijk en traceerbaar zijn. Wanneer in gewone taal wordt gevraagd waarom een specifieke actie is ondernomen, zou er een konijnenhol moeten zijn waar de gebruiker naar toe kan gaan als hij dat wil, samen met een methode om eventuele problemen in zijn denken (inclusief vooroordelen) te corrigeren. Disclaimers hebben geen negatieve gevolgen voor agenten: training over het gebruik ervan en het verifiëren van het gebruik ervan zou standaard moeten zijn.
Met andere woorden: bestuur is belangrijk. Agenten als Qira en Claude Coworker zouden de droom van echte AI-assistenten kunnen verwezenlijken. Maar het potentieel dat ze beloven te ontsluiten vergt evenveel respect. Als AI de afgelopen jaren iets heeft bewezen, is het dat het verbazingwekkende dingen kan doen, maar dat je er niet altijd op kunt vertrouwen dat het goed gaat. Als organisaties echt vooruitgang willen boeken in het agenttijdperk, zullen ze een oud gezegde moeten overnemen: vertrouwen, maar verifiëren.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/media-copilot.png”, “imageMobileUrl”:https ://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/fe289316- bc4f-44ef-96bf-148b3d8578c1_1440x1440.png”,”eyebrow””,”title”:u003Cstrongu003EAbonneer u op The Media Copilotu003C/strongu003E”,”dek”Wilt u meer weten over hoe kunstmatige intelligentie de media verandert? Mis nooit meer een update van Pete Pachal door u te abonneren op The Media Copilot meer bezoek: u003Ca href=u0022https://mediacopilot.substack.com/u0022u003Emediacopilot.substack.comu003C/au003E”,”subhed:”,”description:”,”ctaText:SIGN. UP”, ctaUrl “https://mediacopilot.substack.com/”, thema”:{“bg”:{“bg”:#f5f5f5″, “text”:#000000″, “eyebrow”:#9aa2aa”, “subhed”:#ffffff”, “buttonBg tray#000000″,”buttonHoverBg”#3b3f46″,”buttonText”#ffffff”},”imageDesktopId”:91453847,”imageMobileId”:91453848,”shareable”:false,”slug””}}



