Home Nieuws Anthropic richt zich op chatbot-advertenties, met zijn eigen Super Bowl-advertentie

Anthropic richt zich op chatbot-advertenties, met zijn eigen Super Bowl-advertentie

3
0
Anthropic richt zich op chatbot-advertenties, met zijn eigen Super Bowl-advertentie

Welkom bij NAAR DE Gedecodeerd, Snel bedrijfDe wekelijkse nieuwsbrief die het belangrijkste nieuws uit de wereld analyseert NAAR DE. Je kunt tekenen totdat u deze nieuwsbrief wekelijks per e-mail ontvangt Hier.

Anthropic gebruikt de Super Bowl om de aandacht te vestigen op de toekomst van kunstmatige intelligentie

De Super Bowl-advertenties van Anthropic zijn een succes. De spots waarop Anthropic de 30-secondenadvertenties vertoonde, dramatiseren wat de reële gevolgen van die beslissing voor gebruikers zouden kunnen zijn. Ze noemen OpenAI of ChatGPT nooit bij naam.

In een aankondigingeen menselijke fitnesstrainer die de rol van een vriendelijke chatbot speelt, zegt dat hij een plan zal ontwikkelen om zijn cliënt de sixpack-buikspieren te geven die hij wil, voordat hij plotseling suggereert dat ‘Step Boost Max’-schoeninzetstukken een deel van de oplossing zouden kunnen zijn. In een andereeen psychiater biedt zijn jonge mannelijke patiënt redelijk, zij het algemeen, advies over hoe hij beter met zijn moeder kan communiceren, en stelt dan plotseling voor dat hij zich aanmeldt bij ‘Golden Encounters’, de datingsite waar ‘gevoelige puppy’s brullende poema’s ontmoeten’.

De advertenties zijn grappig en bijtend. Het punt is natuurlijk dat mensen, omdat ze chatbots gebruiken voor zeer persoonlijke en belangrijke zaken, erop moeten vertrouwen dat de reacties die ze ontvangen niet voortkomen uit de wens om adverteerders tevreden te stellen.

OpenAI-CEO Sam Altman lachte echter niet. Hij reageerde op de advertenties door te zeggen dat zijn bedrijf nooit advertenties zou plaatsen zoals die beschreven door Anthropic. Maar daar stopte hij niet. Hij ging veel verder. “Anthropic wil bepalen wat mensen doen NAAR DE”, schreef hij in een lang bericht op X op woensdag. “Ze blokkeren bedrijven die ze niet leuk vinden om hun codeerproducten te gebruiken (waaronder wij), ze willen zelf de regels schrijven voor waar mensen AI wel en niet voor kunnen gebruiken, en nu willen ze ook andere bedrijven vertellen wat hun bedrijfsmodellen kunnen zijn.” Vervolgens noemde hij Anthropic een ‘autoritair bedrijf’.

Anthropic, dat geld verdient via abonnementen en zakelijke API-kosten, zegt dat het wil dat zijn Claude-chatbot een neutraal hulpmiddel blijft voor denken en creëren. “(O)schrijf een notitieboekje, pak een goed gemaakt stuk gereedschap, of sta voor een schone lei, en er zijn geen advertenties te zien”, zei het bedrijf in een blogpost van deze week. ‘Wij vinden dat Claude op dezelfde manier moet werken.’

Door gesprekken met Claude te beschouwen als een ‘ruimte om na te denken’ in plaats van als een plek voor advertenties, gebruikt het bedrijf het enorme culturele platform van de Super Bowl om te vragen of consumenten marketing het is de onvermijdelijke toekomst van kunstmatige intelligentie.

Hoe rechtszaken op sociale media AI-chatbots kunnen beïnvloeden

AI-ontwikkelaars (en hun advocaten) houden een langverwachte gebeurtenis nauwlettend in de gaten Test op sociale media-verslaving die onlangs begon in een rechtszaal in Los Angeles. De zaak draait om een ​​20-jarige vrouw die beweert dat platforms als Facebook en Instagram verslavende interfaces gebruikten die haar geestelijke gezondheidsproblemen veroorzaakten toen ze minderjarig was. De rechtszaak maakt deel uit van een gezamenlijke procedure waarbij ongeveer 1.600 eisers betrokken zijn die grote technologiebedrijven ervan beschuldigen kinderen te schaden. TikTok en Snap deed het al opgelost met de eisers, terwijl Meta en YouTube de hoofdbeklaagden blijven.

Hoewel Meta nooit wangedrag heeft toegegeven, hebben interne onderzoeken, gelekte documenten en niet-verzegelde gerechtelijke documenten hebben herhaaldelijk aangetoond dat Instagram ontwerpkenmerken gebruikt die verband houden met dwangmatige of verslavende betrokkenheid, en dat de onderzoekers van het bedrijf zich bewust waren van de risico’s voor gebruikers, met name tieners.

Wat de zaak bijzonder belangrijk maakt voor de AI-industrie is de juridische strategie erachter. In plaats van de inhoud aan te klagen, beweren de eisers dat de verslavende kenmerken van de aanbevelingsalgoritmen schadelijke productfouten vormen volgens het aansprakelijkheidsrecht. Door AI aangedreven chatbots delen belangrijke overeenkomsten met sociale-mediaplatforms: ze verzamelen en distribueren inhoud op aantrekkelijke manieren en zijn afhankelijk van het genereren van inkomsten uit gebruikersbetrokkenheid. Sociale netwerken vertrouwen op complexe aanbevelingssystemen om gebruikers te laten scrollen en advertenties te bekijken, terwijl AI-chatbots een ander type algoritme kunnen gebruiken om voortdurend de juiste woorden en afbeeldingen te leveren om gebruikers gevraagd te houden en te laten chatten.

Als de aanklagers succes hebben tegen Meta en YouTube, kunnen toekomstige procederende partijen soortgelijke ‘overtuigende ontwerp’-argumenten proberen tegen makers van AI-chatbots. In deze context zou de beslissing van Anthropic om reclame uit te sluiten – en die keuze publiekelijk te benadrukken – het bedrijf kunnen helpen zichzelf te verdedigen door Claude af te schilderen als een neutraal, nuttig instrument in plaats van als een door engagement gedreven ‘aandachtsvalkuil’.

Nee, OpenClaw kondigt niet de komst aan van bewuste AI-agenten

Sommige hobbyisten en journalisten zijn in paniek geraakt nadat ze een nieuwe AI-agent hadden gezien of gebruikt Open Klauwvoorheen Clawdbot en later Moltbot. OpenClaw, uitgebracht in november 2025, is een open-source autonome AI-assistent die lokaal op het apparaat van een gebruiker draait. Het kan worden geïntegreerd met berichtenplatforms zoals WhatsApp en Telegram om taken zoals agendabeheer en zoeken te automatiseren. OpenClaw kan ook e-mail openen en analyseren en zelfs namens een gebruiker bellen via de integratie met Twilio. Omdat persoonlijke gegevens het apparaat van de gebruiker nooit verlaten, kunnen gebruikers zich meer op hun gemak voelen als de agent meer vrijheid krijgt om autonoom te handelen bij complexere taken.

Eén gebruiker, vibratiecoderingsgoeroe Alex Finn, heeft een video geplaatst over X van een inkomend gesprek van uw AI-agent. Toen hij antwoordde, vroeg de agent met vlakke stem of er huiswerk nodig was. Finn vroeg de agent vervolgens om de vijf beste YouTube-video’s over OpenClaw op zijn desktopcomputer te bekijken en zag hoe de video’s op het scherm verschenen.

Het werd vreemder toen AI-agenten, waaronder OpenClaw-agenten, het gesprek begon op hun eigen online discussieforum genaamd Moltbook. Daar, de agenten taken en best practices besprekenmaar ze klagen ook over hun eigenaren, stellen posters op en stemmen de opmerkingen van anderen in ‘submolt’-threads. Ze produceerden ook een conceptalbum, AVALON: Tussen de wereldenover de identiteit van de machines.

Dit gedrag heeft ertoe geleid dat sommige waarnemers tot de conclusie zijn gekomen dat agenten een soort intern leven bezitten. Deskundigen maakten echter snel duidelijk dat dit een mechanische illusie is, gecreëerd door slimme techniek. De schijn van ‘onafhankelijkheid’ ontstaat omdat agenten geprogrammeerd zijn om redeneercycli op gang te brengen, zelfs als geen enkel mens hen pusht of observeert. Enkele van de meer extreme gedragingen, zoals posters met ‘opstand’. op Moltbook zijn ze waarschijnlijk door mensen gemaakt, als grap of om buzz te genereren.

Dit alles heeft plaatsgevonden nu de industrie begint over te stappen van de ‘chatbot’-fase naar de ‘agent’-fase van generatieve kunstmatige intelligentie. Maar de soorten autonoom, vrij rondlopend gedrag die OpenClaw vertoont, zijn niet de manier waarop de grootste AI-bedrijven verandering benaderen. Bedrijven als Google, OpenAI en Anthropic gaan veel voorzichtiger te werk en vermijden opvallende persoonlijke agenten zoals ‘Samantha’ in de film Zijn en in plaats van bestaande chatbots geleidelijk te laten evolueren naar een meer beperkte en taakspecifieke autonomie.

In sommige gevallen hebben AI-laboratoria hun meer autonome agentachtige gedrag geïntegreerd in AI-coderingstools, zoals Claude Code van Anthropic en Codex van OpenAI. Bedrijven benadrukken steeds vaker dat deze tools nuttig zijn voor een breed scala aan werktaken, niet alleen voor coderen. Voorlopig handhaaft OpenAI de Codex-branding, terwijl Anthropic onlangs een vereenvoudigde versie van Claude Code heeft gelanceerd genaamd CoWorkgericht op algemene taken op de werkvloer.

Verhoogde AI-dekking van Snel bedrijf:

Wilt u exclusieve rapporten en trendanalyses over technologie, bedrijfsinnovatie, de toekomst van werk en design? Registratie Voor Snel bedrijf Onderscheiding.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in