⚖️ Anthropic spant een rechtszaak aan om te voorkomen dat het Pentagon AI-gebruik op een zwarte lijst plaatst vanwege beperkingen op het gebruik van AI ↗
Anthropic heeft zijn conflict met het Pentagon voor de rechter gebracht nadat het bedrijf als een risico voor de toeleveringsketen werd bestempeld. Het bedrijf stelt dat deze stap een onrechtmatige vergeldingsmaatregel was omdat het weigerde de beperkingen rond autonome wapens en binnenlandse surveillance te versoepelen. Dit maakt het conflict tot een van de meest explosieve kwesties in het AI-beleid van dit moment. ( Reuters )
De overheid wil flexibiliteit voor "elk rechtmatig gebruik", terwijl Anthropic betoogt dat particuliere laboratoria nog steeds strikte veiligheidsgrenzen moeten kunnen stellen. Dit is uitgegroeid tot een van de duidelijkste tests tot nu toe om te zien of een AI-bedrijf "nee" kan zeggen tegen militaire voorwaarden zonder daarvoor te worden afgestraft. ( Reuters )
🧑💻 Medewerkers van OpenAI en Google steunen de rechtszaak van Anthropic tegen het Pentagon ↗
Die rechtszaak kreeg al snel ook steun van concurrerende laboratoria. Bijna veertig medewerkers van OpenAI en Google steunden Anthropic in een amicus curiae-brief, waarin ze betoogden dat het nemen van vergwraakmaatregelen tegen bedrijven vanwege het overschrijden van veiligheidsgrenzen voor AI indruist tegen het algemeen belang. ( The Verge )
Ja, concurrenten bevinden zich dus plotseling aan dezelfde kant – althans op dit punt. De briefing richt zich op massasurveillance en onbetrouwbare autonome wapens, waardoor de hele affaire minder aanvoelt als standaard gekibbel in Silicon Valley en meer als een echte scheidslijn in de industrie... of misschien wel in de modder. ( The Verge )
🛡️ OpenAI neemt Promptfoo over om zijn AI-agenten te beveiligen ↗
OpenAI heeft aangekondigd dat het Promptfoo overneemt, een startup die zich richt op het beschermen van grote taalmodellen tegen kwaadaardige aanvallen. Het is de bedoeling de technologie te integreren in OpenAI Frontier, het bedrijfsplatform van het bedrijf voor AI-agenten. ( TechCrunch )
Het is een veelzeggende stap. Iedereen wil dat AI-agenten meer, sneller en overal kunnen doen, maar de beveiliging is daarbij achtergebleven, al dan niet in grote mate. Deze deal suggereert dat OpenAI denkt dat de volgende grote race niet alleen om slimmere agenten gaat, maar ook om veiligere. ( TechCrunch )
🧪 Anthropic lanceert een tool voor codebeoordeling om de enorme hoeveelheid door AI gegenereerde code te controleren ↗
Anthropic introduceerde Code Review binnen Claude Code, gericht op teams die overspoeld worden met pull requests gegenereerd door AI-codeertools. Het maakt gebruik van meerdere agents parallel om code te scannen, logische fouten te signaleren, de ernst ervan te bepalen en opmerkingen direct in GitHub achter te laten. ( TechCrunch )
Het concept is vrij eenvoudig: AI genereert code sneller dan mensen die op een zinvolle manier kunnen controleren, dus moet AI nu de AI controleren. Een beetje een paradox, maar wel een praktische oplossing. Anthropic zegt dat het gericht is op zakelijke gebruikers die al enorme hoeveelheden code genereren met Claude Code. ( TechCrunch )
💰 Nscale, een dochteronderneming van Nvidia, wordt gewaardeerd op 14,6 miljard dollar in een nieuwe financieringsronde ↗
Het Britse AI-infrastructuurbedrijf Nscale heeft 2 miljard dollar opgehaald in een Series C-financieringsronde, waarmee de waardering op 14,6 miljard dollar uitkomt. Onder de investeerders bevonden zich Aker, 8090 Industries, Nvidia, Citadel, Dell en Jane Street – wat neerkomt op een aanzienlijk blijk van vertrouwen. ( Reuters )
Dit is belangrijk omdat het niet gaat om de lancering van een nieuw model of een aanpassing aan een chatbot. Het gaat om de praktische kant van de boom – computerkracht, infrastructuur, capaciteit, alle zware machines achter de schermen. Misschien niet zo glamoureus, maar daar stroomt nu een groot deel van het geld naartoe. ( Reuters )
🧠 AMI Labs van Yann LeCun haalt 1,03 miljard dollar op om wereldwijde modellen te bouwen ↗
Yann LeCuns nieuwe onderneming, AMI Labs, heeft 1,03 miljard dollar opgehaald met een waardering van 3,5 miljard dollar vóór de investering. Het bedrijf richt zich op "wereldmodellen" - AI-systemen die moeten leren van de werkelijkheid zelf in plaats van primair van taal. ( TechCrunch )
Dat is een directe filosofische aanval op de huidige consensus die sterk gericht is op taalmodellen, en bovendien een opvallend botte. LeCun betoogt al jaren dat de huidige taalmodellen ons niet helemaal naar een intelligentieniveau van de mens zullen brengen, dus deze verhoging maakt van dat argument een zeer kostbaar experiment. ( TechCrunch )
🇨🇳 Chinese technologiecentra promoten de AI-agent OpenClaw ondanks veiligheidswaarschuwingen ↗
Verschillende Chinese lokale overheden steunen OpenClaw, een AI-agent die zich snel verspreidt ondanks de veiligheidsrisico's die verbonden zijn aan de toegang tot persoonlijke gegevens. De officiële houding lijkt dus te zijn: ja, er zijn risico's, maar laten we het toch op grote schaal inzetten. ( Reuters )
Die tweedeling is het verhaal. Lokale centra willen de economische voordelen en de groei van het ecosysteem, terwijl toezichthouders waarschuwen voor de blootstelling van gegevens. Het is inmiddels een bekend patroon in de AI-wereld: eerst sprinten, dan pas de vangrails opruimen, of zo lijkt het tenminste. ( Reuters )
Veelgestelde vragen
Waarom klaagt Anthropic het Pentagon aan vanwege beperkingen op het gebruik van AI?
Anthropic zegt dat het Pentagon het bedrijf als een risico voor de toeleveringsketen heeft bestempeld nadat het bedrijf bredere voorwaarden had geweigerd die zich zouden kunnen uitstrekken tot autonome wapens en binnenlandse surveillance. De rechtszaak gaat dus over meer dan alleen de status van leverancier. Het is een test of een AI-laboratorium strikte veiligheidslimieten kan handhaven en toch kan meedingen naar overheidsopdrachten zonder daarvoor gestraft te worden.
Waarom steunen medewerkers van OpenAI en Google Anthropic in dit geschil over de veiligheid van AI?
Het amicus curiae-verzoekschrift geeft aan dat veel mensen binnen concurrerende laboratoria dit zien als een baanbrekende kwestie op het gebied van AI-veiligheid, en niet slechts als een conflict tussen één bedrijf en één overheidsinstantie. Hun zorg is dat het bestraffen van een leverancier voor het handhaven van rode lijnen de bredere markt onder druk kan zetten om de veiligheidsmaatregelen te verzwakken. In de praktijk zou dat van invloed kunnen zijn op de manier waarop toekomstige AI-contracten voor defensie en de publieke sector worden onderhandeld.
Wat zou de zaak-Anthropic-Pentagon kunnen betekenen voor het AI-beleid en defensiecontracten?
Als Anthropic wint, krijgen AI-bedrijven mogelijk een sterkere positie om onaanvaardbaar gebruik te definiëren, zelfs bij verkoop aan gevoelige overheidsomgevingen. Als het bedrijf verliest, kunnen overheidsinstanties meer invloed krijgen om bredere voorwaarden voor "wettig gebruik" van leveranciers te eisen. Hoe dan ook, dit geschil zal waarschijnlijk van invloed zijn op de formulering in aanbestedingen, risicobeoordelingen en de manier waarop veiligheidsbepalingen in defensiecontracten worden opgenomen.
Waarom kocht OpenAI Promptfoo voor AI-agenten?
Promptfoo staat bekend om het testen van grote taalmodellen tegen vijandige prompts en andere beveiligingslekken. Het integreren van dit soort tools in het enterprise agent-platform van OpenAI suggereert dat het bedrijf veiligere implementatie ziet als een concurrentievoordeel in plaats van een bijzaak. Naarmate AI-agents meer inhoudelijke taken uitvoeren, wordt het testen op veerkracht en misbruik steeds moeilijker te negeren.
Hoe kunnen teams de enorme hoeveelheid door AI gegenereerde code veiliger verwerken?
De nieuwe codebeoordelingsfunctie van Anthropic in Claude Code is bedoeld voor teams die overweldigd worden door pull-requests die gegenereerd worden door AI-codeertools. De functie maakt gebruik van meerdere agents parallel om logische problemen te detecteren, de ernst ervan te bepalen en opmerkingen achter te laten in GitHub. Normaal gesproken helpen dergelijke tools bij het prioriteren van de grote hoeveelheid, maar menselijke reviewers blijven belangrijk voor de architectuur, context en uiteindelijke goedkeuring.
Waarom wordt er op dit moment zoveel geïnvesteerd in AI-infrastructuur?
De nieuwste financieringsronde van Nscale laat zien dat de AI-industrie nog steeds enorm veel kapitaal investeert in rekenkracht, infrastructuur en capaciteit. Die uitgaven zijn misschien minder zichtbaar dan een flitsende modellancering, maar ze vormen de basis van alles. Wanneer de vraag naar training en implementatie blijft stijgen, behoren de bedrijven die de benodigde middelen leveren vaak tot de grootste winnaars.
Wat zijn wereldmodellen en waarom zet Yann LeCun erop in?
Wereldmodellen zijn AI-systemen die ontworpen zijn om te leren van hoe de wereld zich gedraagt, in plaats van primair te vertrouwen op taaldata. Dat is belangrijk, omdat Yann LeCun al lange tijd betoogt dat taalmodellen op zichzelf waarschijnlijk nooit een intelligentieniveau zullen bereiken dat vergelijkbaar is met dat van de mens. AMI Labs zet die visie om in een grote commerciële gok op een andere weg voor geavanceerd AI-onderzoek.
Waarom steunen Chinese technologiecentra OpenClaw ondanks veiligheidswaarschuwingen?
Het verhaal van OpenClaw laat een bekende tweedeling zien binnen snel veranderende technologiemarkten: lokale overheden willen groei, subsidies en een bloeiend ecosysteem, terwijl toezichthouders zich zorgen maken over datalekken en de beveiliging van gegevens. Het feit dat de agent ondanks waarschuwingen wordt gesteund, suggereert dat economische prikkels in sommige gebieden de overhand hebben. Voor waarnemers is het opnieuw een herinnering dat de adoptie vaak sneller gaat dan het toezicht.