AI-nieuws, 7 maart 2026

Overzicht van AI-nieuws: 7 maart 2026

🤖 Hardwareleider van OpenAI stapt op na deal met Pentagon

Caitlin Kalinowski, hoofd hardware en robotica bij OpenAI, is opgestapt na de deal van het bedrijf met het Pentagon. Ze zei dat er intern onvoldoende overleg was geweest voordat de modellen werden goedgekeurd voor gebruik in geheime defensienetwerken. Haar voornaamste zorg was heel direct: menselijk toezicht, de grenzen van surveillance en het risico dat dodelijke autonomie te snel zou oprukken. ( Reuters )

OpenAI zegt dat de overeenkomst extra waarborgen bevat en nog steeds binnenlandse surveillance en het gebruik van autonome wapens verbiedt. Toch doet het aftreden het geheel minder lijken op een soepel verlopen beleidsupdate en meer op een nooddeur die midden in een vergadering dichtzwaait. ( Reuters )

🏗️ Oracle en OpenAI zien af ​​van plannen voor uitbreiding van datacenter in Texas, meldt Bloomberg News

Oracle en OpenAI hebben naar verluidt hun plannen voor de uitbreiding van hun grote AI-datacenter in Abilene, Texas, laten varen. De financieringsonderhandelingen sleepten zich voort en de rekenkrachtbehoeften van OpenAI veranderden. De locatie maakte deel uit van het bredere Stargate-infrastructuurproject, dus dit is zeker geen kleinigheid. ( Reuters )

De bestaande campus blijft in bedrijf en de bedrijven zeggen dat de bredere uitbouw van multi-gigawattcapaciteit elders doorgaat. Tegelijkertijd kan de afgebroken uitbreiding nu een kans bieden voor Meta, dat naar verluidt heeft gesproken over het huren van de locatie. AI-infrastructuur blijft zich ontwikkelen als nat cement: zwaar, duur en nooit helemaal stabiel. ( Reuters )

⚖️ Het Pentagon bestempelt Anthropic als een risico voor de toeleveringsketen

Het Pentagon bestempelde Anthropic formeel als een risico voor de toeleveringsketen en beperkte het gebruik van Claude in contracten van het ministerie van Defensie nadat het bedrijf weigerde de waarborgen tegen autonome wapens en massasurveillance te versoepelen. Dat is de kern van de zaak: een aanbestedingsconflict dat uitgroeide tot een veel groter conflict over waarden. ( Reuters )

Anthropic stelt dat de maatregel juridisch onjuist is en is van plan deze aan te vechten bij de rechter. De classificatie is ongebruikelijk streng voor een Amerikaans AI-laboratorium en komt midden in een breder debat over de vraag of bedrijven die zich richten op grensverleggende technologieën strengere regels in defensiecontracten moeten opnemen, of dat ze erop moeten vertrouwen dat de bestaande wetgeving dit voor hen doet... iets waar niet iedereen toe bereid is. ( Reuters )

💬 Meta wil AI-concurrenten op WhatsApp toelaten in een poging EU-maatregelen af ​​te wenden

Meta zegt dat het concurrerende AI-chatbots een jaar lang toegang zal geven tot WhatsApp in Europa, via de Business API, na druk van de Europese mededingingsautoriteiten. Concurrenten hadden geklaagd dat Meta hen feitelijk blokkeerde en zijn eigen assistent bevoordeelde – een veelzeggend detail, gezien de toenemende centralisatie van AI-systemen. ( Reuters )

Het addertje onder het gras is dat de toegang kosten met zich meebrengt, en critici stellen dat kleinere concurrenten daardoor nog steeds in het nadeel zijn. Toezichthouders moeten nog beslissen of die concessie voldoende is, dus dit lijkt minder op een vredesverdrag en meer op een pauzeknop verpakt in papierwerk. ( Reuters )

📜 xAI verliest rechtszaak tegen openbaarmaking van AI-gegevens in Californië

xAI heeft zijn poging verloren om een ​​Californische wet te blokkeren die AI-bedrijven verplicht meer openbaar te maken over de data die gebruikt worden om hun modellen te trainen. Doordat de rechtbank de wet niet heeft tegengehouden, staat xAI nu voor dezelfde transparantiedruk als andere modelbouwers, die soms op onhandige wijze proberen te ontwijken. ( Reuters )

Het is belangrijk omdat de discussies over trainingsdata niet langer alleen academisch of auteursrechtelijk van aard zijn, maar een actueel complianceprobleem vormen. Voor xAI, dat al te maken heeft met herhaalde veiligheidscontroverses rond Grok, komt daar nog een extra regelgevingslast bij. ( Reuters )

Veelgestelde vragen

Waarom nam het hoofd van de hardware- en robotica-afdeling van OpenAI ontslag na de deal met het Pentagon?

Caitlin Kalinowski is afgetreden omdat ze van mening was dat er onvoldoende intern overleg had plaatsgevonden over het besluit om modellen goed te keuren voor geheime defensienetwerken. Haar zorgen betroffen met name menselijk toezicht, beperkingen op surveillance en het risico dat dodelijke autonomie te snel zou oprukken. OpenAI stelde dat de overeenkomst nog steeds binnenlandse surveillance en het gebruik van autonome wapens verbiedt, maar het aftreden suggereert dat het interne debat niet volledig was afgerond.

Wat betekent het precies dat het Pentagon Anthropic als een risico voor de toeleveringsketen bestempelt?

Dit betekent dat Claude niet meer gebruikt mag worden in contracten van het Ministerie van Defensie, wat een grote tegenslag is voor de aanbestedingen. Volgens het artikel draait het geschil om de weigering van Anthropic om de waarborgen met betrekking tot autonome wapens en massasurveillance te verzwakken. Anthropic stelt dat de classificatie juridisch onjuist is en is van plan deze aan te vechten, waardoor dit zowel een rechtszaak als een beleidstoets zou kunnen worden.

Waarom is de geannuleerde uitbreiding van het datacenter in Texas relevant voor het nieuws in de AI-sector?

De afgebroken uitbreiding in Abilene is belangrijk omdat deze deel uitmaakte van de bredere Stargate-infrastructuurontwikkeling en daarmee verbonden was aan de langetermijnplanning voor AI-computing. Reuters meldt dat de bestaande campus nog steeds in bedrijf is, maar dat vertragingen in de financiering en veranderende behoeften aan rekenkracht ertoe hebben geleid dat Oracle en OpenAI de uitbreiding hebben laten varen. Het laat ook zien hoe snel grote investeringen in AI-infrastructuur kunnen verschuiven, zelfs als de bredere uitbouw elders doorgaat.

Waarom laat Meta concurrerende AI-chatbots toe op WhatsApp in Europa?

Meta heeft deze stap gezet na druk van EU-mededingingsautoriteiten en klachten dat het bedrijf zijn eigen assistent bevoordeelde ten koste van concurrenten. De toegang is tijdelijk en verloopt via de Business API, dus het is geen volledig open-deurbeleid. Er blijven kosten aan verbonden, wat betekent dat kleinere concurrenten ook na deze concessie praktische nadelen kunnen blijven ondervinden.

Wat betekent de Californische wetgeving inzake openbaarmaking van AI-trainingsgegevens voor xAI?

Doordat de rechtbank de wet niet heeft geblokkeerd, moet xAI nu rekening houden met extra transparantie-eisen rondom trainingsdata. Dat is belangrijk, omdat modelontwikkelaars vaak gedetailleerde openbaarmaking hebben proberen te vermijden, vooral wanneer de herkomst van de data gevoelig of omstreden is. In de praktijk wordt trainingsdata een actief compliance-vraagstuk in plaats van een discussie over onderzoeksnormen of auteursrechtrisico's.

Wat is de belangrijkste conclusie uit het AI-nieuws van deze week?

De rode draad is dat AI minder wordt gevormd door productlanceringen alleen, maar meer door governance, infrastructuur en regelgeving. Samenwerkingen op het gebied van defensie leiden tot interne conflicten, de uitbreiding van rekenkracht blijkt duur en onvoorspelbaar, en toezichthouders oefenen steeds meer druk uit op toegang en openbaarmaking. Het artikel laat zien dat de industrie, aan de hand van OpenAI, Anthropic, Meta en xAI, gedwongen wordt om de afwegingen die ze maakt transparanter te maken.

AI-nieuws van gisteren: 6 maart 2026

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog