AI-nieuws 17 december 2025

Overzicht van AI-nieuws: 17 december 2025

💰 Amazon voert gesprekken over een investering van $10 miljard in de ontwikkelaar van ChatGPT

Amazon voert naar verluidt gesprekken om meer dan 10 miljard dollar in OpenAI te investeren. Als dat daadwerkelijk gebeurt, zou de waardering van OpenAI tot boven de 500 miljard dollar stijgen, iets waar je je waarschijnlijk over verbaast. Het wordt gepresenteerd als een combinatie van financiering en strategische samenwerking... plus de meest simpele drijfveer van allemaal: de enorme behoefte aan rekenkracht.

Uit de berichtgeving blijkt ook dat OpenAI mogelijk meer gebruik zal maken van de capaciteit van AWS en wellicht de Trainium-chips van Amazon zal gaan gebruiken. Dit zou in feite een toeleveringsketen worden voor de volgende golf van modelopschaling (althans, zo lijkt het – deze gesprekken kunnen nogal wankel zijn).
🔗 Lees meer

🧑💻 Ontwikkelaars kunnen nu apps indienen bij ChatGPT

OpenAI heeft de mogelijkheid geopend om apps in te dienen voor beoordeling en publicatie binnen ChatGPT. Daarnaast is er een app-directory in de app zelf, waar gebruikers door aanbevolen apps kunnen bladeren of naar gepubliceerde apps kunnen zoeken. Apps kunnen midden in een gesprek worden geactiveerd via @vermeldingen of worden geselecteerd vanuit het menu 'Gereedschap' - typisch "apps, maar dan native voor chat".

Ze brengen ook een Apps SDK (beta) uit, plus een bundel ontwikkelaarsbronnen (voorbeelden, UI-bibliotheek, snelstartgids). De monetisatie is voorlopig nog voorzichtig – voornamelijk via links naar voltooide transacties – maar het is duidelijk dat OpenAI dit wil laten uitgroeien tot een echt ecosysteem.
🔗 Lees meer

🗞️ OpenAI Academy voor nieuwsorganisaties

OpenAI heeft een leerplatform gelanceerd, gericht op journalisten, redacteuren en uitgevers, ontwikkeld in samenwerking met partners zoals het American Journalism Project en het Lenfest Institute. De kernboodschap: praktische trainingen en handleidingen die nieuwsredacties helpen AI te gebruiken zonder het vertrouwen in het proces stilletjes te ondermijnen.

Het lanceringsprogramma van de Academy omvat "AI Essentials for Journalists", plus toepassingsvoorbeelden zoals onderzoeksjournalistiek, vertaling, data-analyse en productie-efficiëntie. Er is ook een duidelijke nadruk op verantwoord gebruik en intern bestuur – want ja, iemand moet dat beleidsdocument schrijven waar niemand zin in heeft.
🔗 Lees meer

⚡ Gemini 3 Flash: baanbrekende intelligentie, gebouwd voor snelheid

Google introduceerde de Gemini 3 Flash als een sneller en kostenefficiënter model en maakte deze de standaard in de Gemini-app en de AI-modus in Zoeken. De slogan is in feite "Professionele redenering, snelheid op Flash-niveau", wat klinkt als een slogan... maar tegelijkertijd ook de hele huidige concurrentiestrijd treffend beschrijft.

Het wordt ook uitgerold naar zowel ontwikkelaars- als bedrijfsplatformen (Gemini API, AI Studio, Vertex AI en meer). De opvallende onderliggende boodschap is: Google wil dit model overal waar mensen het al gebruiken, waardoor de overstapkosten steeds moeilijker te verleggen worden.
🔗 Lees meer

🧩 OpenUSD en NVIDIA Halos versnellen de veiligheid van robotaxi's en fysieke AI-systemen

NVIDIA bundelt simulatiestandaarden en veiligheidsworkflows in een meer samenhangende "fysieke AI"-stack - robots en autonome voertuigen die moeten overleven in de chaos van de echte wereld. Een belangrijk onderdeel hiervan is de OpenUSD Core Specification 1.0, bedoeld om 3D/simulatie-pipelines voorspelbaarder en interoperabeler te maken tussen verschillende tools.

Op het gebied van veiligheid benadrukt NVIDIA het Halos AI Systems Inspection Lab (en het bijbehorende certificeringsprogramma) voor robotaxi's, autonome voertuigsystemen, sensoren en platformen. Onder de eerste deelnemers bevinden zich Bosch, Nuro en Wayve, terwijl Onsemi als eerste de inspectie heeft doorstaan ​​– een mooi moment om een ​​badge te bemachtigen.
🔗 Lees meer

🧪 Lab van UC San Diego bevordert onderzoek naar generatieve AI met NVIDIA DGX B200-systeem

Het Hao AI Lab van UC San Diego ontving een NVIDIA DGX B200-systeem om onderzoek naar LLM-inferentie met lage latentie te bevorderen – de minder aantrekkelijke technische kant die bepaalt of AI direct aanvoelt of dat het voelt alsof je op een toastje moet wachten. NVIDIA merkt ook op dat in de praktijk gebruikte inferentiesystemen zoals Dynamo gebruikmaken van concepten uit het werk van het lab, waaronder DistServe.

Het verhaal draait sterk om "goodput" versus doorvoer - in feite doorvoer die nog steeds aan de latency-doelstellingen voldoet. Ze beschrijven ook hoe prefill en decodering over verschillende GPU's worden verdeeld om resource-interferentie te verminderen, wat misschien technisch klinkt, maar het is wel het soort technische details dat de beleving van een product verandert.
🔗 Lees meer

🏗️ Hut 8 tekent een overeenkomst voor 245 MW aan capaciteit met Fluidstack als onderdeel van een samenwerkingsverband van meerdere gigawatt met Anthropic

Hut 8 heeft een langetermijncontract getekend voor 245 MW aan capaciteit op zijn campus in River Bend. Het bedrijf verhuurt deze capaciteit aan AI-cloudbedrijf Fluidstack in een structuur ter waarde van 7 miljard dollar (met opties die de waarde aanzienlijk kunnen verhogen). Anthropic is als eindgebruiker betrokken via het bredere partnerschap – dit is opnieuw een voorbeeld van cryptomining-infrastructuur die zich richt op AI-kracht, maar dan… op grotere schaal.

Er is ook een recht van eerste bod voor maximaal 1 GW extra vermogen in River Bend, plus financiering door grote banken en een vangnet van Google. Eerlijk gezegd komt het er allemaal op neer dat "AI stroom en vastgoed wil - en wel gisteren nog."
🔗 Lees meer

AI-nieuws van gisteren: 16 december 2025

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog