🦞 OpenClaw-oprichter Steinberger sluit zich aan bij OpenAI, open-source bot wordt stichting ↗
Peter Steinberger gaat naar OpenAI om zich te richten op "persoonlijke agenten", terwijl OpenClaw zelf wordt ondergebracht bij een stichting zodat het open source (en ondersteund) blijft. Die splitsing is... best slim: huur de ontwikkelaar in, houd het project openbaar.
OpenClaw is opvallend praktisch: e-mail sorteren, verzekeringspapieren afhandelen, inchecken voor vluchten, en al die vervelende administratieve klusjes. Het is ook enorm populair geworden op GitHub, en die populariteit heeft geleid tot zorgen over de beveiliging, vooral als mensen het onzorgvuldig implementeren.
🪖 Pentagon 'genoeg' van tegenstand van Anthropic tegen het gebruik van het AI-model Claude door het leger, overweegt banden te verbreken, aldus een rapport ↗
De kern van het conflict: het Pentagon wil brede toegang voor "alle wettige doeleinden", terwijl Anthropic nog steeds strikte beperkingen wil opleggen aan volledig autonome wapens en massasurveillance. Dat soort meningsverschil klinkt filosofisch, totdat iemand zegt: "we zouden jullie wel eens kunnen vervangen."
Een onderschat probleem is dat ambtenaren niet willen dat het model plotseling werkprocessen blokkeert, en ze willen ook niet eindeloos blijven onderhandelen over uitzonderingen (terecht... maar ook wel zorgwekkend). Er heerst hier een duidelijke spanning over wie de touwtjes in handen heeft, en die is niet te onderschatten.
🧠 Start-up ontwikkelt model om menselijk gedrag te voorspellen ↗
Simile haalde $100 miljoen op om een "beperkt lerend" model te ontwikkelen dat is gericht op het voorspellen van wat mensen mogelijk zullen doen - met name het anticiperen op waarschijnlijke vragen tijdens bijvoorbeeld conference calls over kwartaalcijfers. Een smalle doelgroep, grote ambitie, een ietwat griezelige combinatie.
De aanpak is gebaseerd op interviews met echte mensen en gegevens uit gedragsonderzoek, waarna simulaties worden uitgevoerd met AI-agenten die de werkelijke voorkeuren moeten nabootsen. Het is alsof je een weermodel maakt voor menselijke beslissingen... wat onmogelijk klinkt, totdat het dat niet meer is.
🧑⚖️ Primeur: Het Witte Huis zet een wetgever in Utah onder druk om een wetsvoorstel over transparantie van AI te blokkeren ↗
Een initiatief in Utah om de transparantie rondom AI op staatsniveau te vergroten, stuit op felle kritiek vanuit het Witte Huis. Ambtenaren dringen er bij de indiener van het wetsvoorstel op aan het niet door te voeren. De kern van het wetsvoorstel draait om transparantie en de veiligheid van kinderen – een argument dat op het eerste gezicht weinig tegenspreekt.
Maar de grotere strijd gaat over bevoegdheden: wie mag de regels vaststellen, de staten of de federale overheid? En ja, het is een kluwen – alsof twee mensen aan hetzelfde stuur proberen te komen en volhouden dat zij de kalmste zijn.
🎬 ByteDance belooft ongeoorloofd gebruik van intellectueel eigendom in AI-videotool te voorkomen na dreiging van Disney ↗
Disney heeft ByteDance een sommatie gestuurd om de AI-videogenerator te staken, en ByteDance zegt dat het de beveiligingsmaatregelen versterkt om ongeoorloofd gebruik van intellectueel eigendom en afbeeldingen te voorkomen. De klacht luidt – naar verluidt – dat de tool bekende personages uit franchises kan genereren alsof het gewoon… stickers uit het publieke domein zijn.
Het is de botsing die iedereen zag aankomen: virale AI-videotools ontwikkelen zich razendsnel, studio's kiezen voor rechtszaken en "we voegen waarborgen toe" wordt de standaard verontschuldiging. Opmerkelijk genoeg lijkt de technologie magisch, terwijl de juridische kant juist zwaartekracht lijkt te zijn.
Veelgestelde vragen
Wat betekent het dat de oprichter van OpenClaw zich bij OpenAI heeft aangesloten, terwijl OpenClaw is overgegaan naar een stichting?
Het duidt op een scheiding tussen de persoon die "persoonlijke agenten" bouwt en het project dat publiekelijk beheerd blijft. Steinbergers overstap naar OpenAI suggereert dat hij zich daar zal concentreren op de ontwikkeling van agent-achtige producten. Het plaatsen van OpenClaw in een stichting is bedoeld om het open source te houden en duurzame ondersteuning te garanderen. In de praktijk is de stap erop gericht het vertrouwen van de community te behouden, terwijl de ontwikkelaar daarheen gaat waar de middelen beschikbaar zijn.
Waarom richten AI-agenten in de stijl van OpenClaw zich op routinetaken zoals e-mail en papierwerk?
Omdat administratieve taken repetitief, op regels gebaseerd en tijdrovend zijn, lenen ze zich goed voor automatisering. De voorbeelden hier – e-mail sorteren, verzekeringspapieren verwerken en inchecken voor vluchten – zijn specifieke taken met duidelijke succescriteria. Die focus kan ervoor zorgen dat medewerkers zich sneller waardevol voelen dan bij meer open assistenten. Het onderstreept ook waarom zorgvuldige toegangscontrole belangrijk is wanneer medewerkers toegang hebben tot persoonlijke accounts.
Hoe kun je een open-source AI-agent zoals OpenClaw implementeren zonder beveiligingsproblemen te veroorzaken?
Behandel het als software die gevoelige gegevens kan inzien, niet als een speelgoedscript. Een veelgebruikte aanpak is om inloggegevens te beveiligen, machtigingen te beperken tot het minimaal noodzakelijke en logboeken en auditsporen bij te houden. Voer het uit in een afgeschermde omgeving en scheid het van systemen met hoge waarde. Veel beveiligingsproblemen komen voort uit onzorgvuldige implementatie, met name wanneer mensen eindpunten of tokens blootstellen zonder sterke beveiligingsmaatregelen.
Waarom is het Pentagon ontevreden over de beperkingen die Anthropic oplegt aan het gebruik van Claude voor militaire doeleinden?
Het conflict draait om reikwijdte en controle: het Pentagon wil brede toegang voor "alle wettige doeleinden", terwijl Anthropic naar verluidt strikte beperkingen oplegt aan volledig autonome wapens en massasurveillance. Ambtenaren willen ook niet dat modellen werkprocessen halverwege blokkeren of eindeloze onderhandelingen over uitzonderlijke gevallen vereisen. Die spanning is minder abstract dan het klinkt – het gaat erom wie bepaalt wat het model in de praktijk kan doen.
Hoe proberen startups menselijk gedrag te voorspellen met behulp van AI, en waarom wordt dat als controversieel ervaren?
Het voorbeeld dat hier wordt besproken, Simile, volgt een model van "beperkt leren" dat gericht is op het voorspellen van mogelijk gedrag van mensen, inclusief het anticiperen op waarschijnlijke vragen in contexten zoals conference calls over kwartaalcijfers. De beschreven aanpak combineert interviews met gedragsonderzoeksgegevens en simulaties met behulp van AI-agenten die de werkelijke voorkeuren moeten weerspiegelen. Het voelt onheilspellend aan, omdat AI niet langer reageert op mensen, maar hun gedrag voorspelt. De uitdaging is om beweringen binnen de perken te houden en overmoed te vermijden.
Wat gebeurt er als AI-videotools auteursrechtelijk beschermde personages genereren, zoals in het conflict tussen ByteDance en Disney?
Het gerapporteerde patroon is bekend: een studio stuurt een sommatiebrief en het platform reageert door de beveiligingsmaatregelen aan te scherpen om ongeoorloofd gebruik van intellectueel eigendom of afbeeldingen te voorkomen. In veel gevallen betekenen deze beveiligingsmaatregelen strengere contentfilters, betere detectie van herkenbare personages en een duidelijkere handhaving van het gebruikersbeleid. Het onderliggende conflict draait om snelheid versus aansprakelijkheid: virale content wordt razendsnel gegenereerd en de handhaving van rechten werkt als een zwaartekracht. Verwacht meer van dit soort botsingen naarmate videogeneratoren zich verder verspreiden.