AI-nieuws, 10 februari 2026

Overzicht van AI-nieuws: 10 februari 2026

🧱 Volgens Lutnick moet Nvidia rekening houden met beperkingen rondom de verkoop van AI-chips aan China

De Amerikaanse minister van Handel, Howard Lutnick, zei dat Nvidia bepaalde geavanceerde AI-chips in China mag verkopen, maar alleen onder strikte licentievoorwaarden. Het is niet "niet verkopen", maar "verkopen en bewijzen dat je het verdient"

Een opvallend detail: de voorwaarden zouden controles omvatten zoals Know Your Customer-achtige procedures om het risico te verkleinen dat chips in militaire toepassingen terechtkomen. Dat Nvidia zich hiertegen verzet, is voorspelbaar, maar het tijdperk van compliance breekt hoe dan ook aan.

💼 Blackstone verhoogt zijn belang in AI-startup Anthropic tot ongeveer 1 miljard dollar, aldus een bron

Blackstone heeft naar verluidt zijn belang in Anthropic vergroot tot ongeveer $1 miljard, door extra geld toe te voegen als onderdeel van een bredere financieringsronde. Grote financiële instellingen blijven "modelbouwers" kopen alsof het infrastructuur betreft, en niet apps.

De geruchten over de waardering zorgen ervoor dat je wenkbrauwen onwillekeurig even optrekken. En dan is er ook nog de lancering van Anthropics nieuwste topmodel, dat op de achtergrond te zien is met de boodschap: we verzenden, blijf maar betalen.

🧠 Cadence introduceert een AI-agent om het ontwerp van computerchips te versnellen

Cadence heeft ChipStack AI Super Agent gelanceerd, in feite een "agentische" helper voor chipontwerp en -verificatie - het trage, hersenkrakende proces waar ingenieurs eindeloos mee bezig zijn. Het bedrijf beweert dat het bepaalde taken aanzienlijk kan versnellen door een werkend "mentaal model" van een ontwerp te creëren en vervolgens tests en debugging uit te voeren.

Het is een typische AI-wending: de meest geavanceerde chips worden sneller ontworpen... door AI... zodat we nóg meer AI kunnen bouwen. Een slang die in zijn eigen staart bijt, maar dan op een merkwaardig productieve manier.

🎬 AI-videostartup Runway haalt $315 miljoen op met een waardering van $5,3 miljard en richt zich op geavanceerdere modellen wereldwijd

Runway haalde een flinke Series E-financiering op en presenteerde het geld als brandstof voor "wereldmodellen" - niet alleen het genereren van videoclips, maar het bouwen van systemen die omgevingen zo goed representeren dat ze geschikt zijn voor planning en simulatie. Dat klinkt ingewikkeld, maar de richting is helder: meer samenhangende video's, consistentere werelden en (hopelijk) minder surrealistische smeltende gezichten.

Ze breiden hun activiteiten ook uit van media en reclame naar zaken als gaming en robotica, en dat is het deel dat stiekem enorm belangrijk aanvoelt... videomodellen als opstapje naar machines die scènes begrijpen, in plaats van ze alleen maar weer te geven.

🧩 De AI-hardware van Jony Ives is uitgesteld tot 2027 en zal niet io heten

Uit gerechtelijke documenten blijkt dat het OpenAI-hardwareproject van Jony Ive wordt stopgezet en dat de naam "io" wordt geschrapt vanwege problemen met het merkenrecht. De toekomst, die struikelt over merkrechten, voelt griezelig toepasselijk aan.

De vertraging is belangrijk omdat er al een tijdlang veel ophef is over de hardware, en dit soort vertragingen de verwachtingen bijstellen. Het betekent niet het einde van het project, maar het schuift het wel naar die vage "uiteindelijk"-zone waar producten vaak even een dutje doen.

🕵️ 'Anonieme' interviews van Anthropic ontcijferd door professor met een LLM-diploma

Een professor van Northeastern University heeft een manier laten zien om een ​​deel van de interviews die zijn vrijgegeven door het Interviewer-project van Anthropic te de-anonimiseren met behulp van een standaard LLM-software. Niet alle interviews, maar genoeg om het punt duidelijk te maken.

Het is een herinnering dat "geanonimiseerde tekst" vaak meer lijkt op "licht verhulde tekst", vooral wanneer modellen de identiteit kunnen afleiden uit contextuele aanwijzingen. Privacy wordt niet in één klap geschonden, maar brokkelt geleidelijk af.

🧾 Een nieuw wetsvoorstel zou technologiebedrijven kunnen verplichten om te rapporteren of ze auteursrechtelijk beschermd materiaal gebruiken voor AI-training

Een wetsvoorstel met steun van beide partijen (de CLEAR Act) zou bedrijven ertoe aanzetten auteursrechtelijk beschermde werken openbaar te maken die gebruikt worden bij het trainen van AI-modellen. Het is geen rechtstreekse licentieplicht, maar eerder alsof je het licht aanzet in een ruimte die opzettelijk gedimd is.

Als dit ergens toe leidt, zou het de sfeer in auteursrechtconflicten kunnen veranderen: minder "vertrouw ons maar" en meer "laat zien wat je in huis hebt". Of dat op grote schaal afdwingbaar is, is de grote vraag, en in zekere zin ook de kern van de zaak.

Veelgestelde vragen

Wat betekenen de "vangrails" voor de verkoop van Nvidia's AI-chips aan China nu eigenlijk?

Ze geven aan dat de verkoop nog steeds kan doorgaan, maar alleen onder strikte licentievoorwaarden van het Amerikaanse ministerie van Handel. In plaats van een algeheel verbod, is de houding eerder: "Verkoop, maar bewijs dat je het verdient." In de praktijk zullen exporteurs moeten aantonen wie de kopers zijn, hoe de chips gebruikt zullen worden en welke maatregelen er zijn genomen om het risico op misbruik te verkleinen.

Hoe ziet de naleving van de "Ken uw klant"-wetgeving eruit bij de export van geavanceerde AI-chips?

Het houdt doorgaans in dat kopers, tussenpersonen en eindgebruikers veel grondiger worden gescreend dan bij standaard zakelijke verkopen. Een veelgebruikte aanpak omvat het verzamelen van meer gedetailleerde identiteits- en eigendomsgegevens, het valideren van het opgegeven eindgebruik en het letten op signalen van doorverkoop of ongebruikelijke verzendpatronen. Het doel is om de kans te verkleinen dat chips worden gebruikt voor militaire of andere verboden doeleinden, terwijl toegestane commerciële export wel mogelijk blijft.

Waarom investeren bedrijven zoals Blackstone zo'n 1 miljard dollar in Anthropic en andere modelbouwers?

Grote investeerders beschouwen opkomende modelbedrijven steeds vaker als infrastructuur: duur om te bouwen, strategisch belangrijk en potentieel essentieel voor veel vervolgproducten. Vervolginvesteringen weerspiegelen vaak ook de wens om de betrokkenheid te behouden naarmate de investeringsrondes opschalen. De gok is vaak dat de capaciteit van het model, de distributie en de acceptatie door bedrijven in de loop der tijd exponentieel groeien, zelfs als de kosten op korte termijn hoog blijven.

Hoe moet ik de waarderingen van grote AI-startups interpreteren wanneer een bedrijf ook nieuwe vlaggenschipmodellen op de markt brengt?

Bij waarderingsgesprekken worden verwachtingen over toekomstige marktmacht vaak net zo nauw gevolgd als de huidige omzet. Het leveren van sterkere modellen kan het idee versterken dat het bedrijf daadwerkelijk presteert en niet alleen maar kapitaal aantrekt. Toch is het duidelijkste signaal meestal de groei: terugkerende klanten, betrouwbare prestaties en een verdedigbare marktbenadering. Een veelgebruikte aanpak is om naast de cijfers ook het productgebruik en de zakelijke investeringen in de gaten te houden.

Wat is Cadence's ChipStack AI Super Agent en welke onderdelen van chipontwerp kan het versnellen?

Het wordt gepresenteerd als een "agentische" assistent voor chipontwerp en -verificatie, met de nadruk op langzaam en tijdrovend werk zoals testen, debuggen en itereren op complexe ontwerpen. Het concept is dat de tool een goed begrip van het ontwerp ontwikkelt en vervolgens helpt om controles en probleemopsporing te versnellen. In veel workflows vormen verificatieknelpunten de plekken waar tijd en engineeringinspanningen oplopen.

Wat zijn "wereldmodellen" in AI-video, en waarom zetten startups daarop in?

"Wereldmodellen" verwijzen over het algemeen naar systemen die omgevingen consistent genoeg weergeven om scènes te plannen, te simuleren en coherent te houden in de tijd. Bij videogeneratie kan dit zich vertalen in minder continuïteitsfouten en stabielere personages, objecten en bewegingen. Dezelfde mogelijkheden kunnen verder reiken dan alleen media – vaak besproken in de context van gaming, simulatie en robotica – omdat het gaat om het begrijpen van scènes, niet alleen om het renderen van frames.

Waarom worden AI-hardwareprojecten vertraagd en hernoemd, zoals het verhaal rond het apparaat van Jony Ive/OpenAI?

Hardware-tijdlijnen lopen om diverse redenen vertraging op: prototypes, leveringsproblemen, gebruikstests en de moeilijkheid om softwarefunctionaliteit af te stemmen op een fysieke vormfactor. Naamswijzigingen kunnen het gevolg zijn van conflicten over handelsmerken of veranderingen in de merkstrategie. Een vertraging betekent niet automatisch dat een project is stopgezet; het duidt er vaak op dat het team de scope, de juridische basis en de productgereedheid opnieuw evalueert voordat het product naar de markt wordt gebracht.

Hoe kan de anonimiteit van geanonimiseerde AI-interviewteksten worden opgeheven, en wat wil de CLEAR Act veranderen?

Tekst kan de identiteit onthullen aan de hand van contextuele aanwijzingen – opvallende ervaringen, locaties, tijdlijnen of formuleringen – waardoor een LLM (Letter of Learning) soms kan afleiden wie iemand is, zelfs als namen zijn verwijderd. Daarom vereist "anonimisering" vaak sterkere bescherming dan eenvoudige redactie. Daarnaast zou de voorgestelde CLEAR Act bedrijven ertoe aanzetten om auteursrechtelijk beschermde werken die in trainingen worden gebruikt openbaar te maken, waardoor het debat verschuift van "vertrouw ons maar" naar meer meetbare transparantie.

AI-nieuws van gisteren: 9 februari 2026

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog