AI-nieuws, 9 februari 2026

Overzicht van AI-nieuws: 9 februari 2026

🏗️ De VS stimuleren bedrijven om een ​​nieuw "compact" voor AI-datacenters op te zetten, meldt Politico

De VS probeert naar verluidt grote bedrijven te bewegen een nieuw "akkoord" te ondertekenen voor AI-datacenters - in feite een bundel afspraken over hoe deze enorme computercomplexen beheerd moeten worden.

De details zijn nog wat vaag (klassiek), maar de richting lijkt bekend: het standaardiseren van verwachtingen rond energie, veiligheid en mogelijk ook rapportage – een beleefde beleidsvariant van "laat dit alsjeblieft geen puinhoop worden"

🎬 Google aangeklaagd door Autodesk vanwege AI-gestuurde software voor het maken van films

Autodesk klaagt Google aan vanwege de naam "Flow", omdat het bedrijf die naam al gebruikte voor software voor productie- en VFX-management. Google's AI-tool voor het maken van films werd bovendien onder dezelfde merknaam gelanceerd.

Het meest opvallende detail is de beschuldiging dat Google eerder had aangegeven de naam niet commercieel te willen gebruiken... maar vervolgens toch handelsmerken heeft aangevraagd. Het is inderdaad een strijd om handelsmerken, maar het heeft ook iets weg van een kleinschalige "groot platform versus gespecialiseerde toolmaker"-strijd.

🏥 AI is niet beter dan andere methoden voor patiënten die medisch advies zoeken, blijkt uit onderzoek

Een nieuwe studie heeft aangetoond dat het gebruik van AI voor medisch advies aan patiënten niet beter presteert dan andere benaderingen. Dat is niet verrassend en enigszins geruststellend, afhankelijk van hoe kritisch je altijd al bent geweest over apps die symptomen controleren.

Dat betekent niet dat AI nutteloos is in de gezondheidszorg, maar wel dat "vraag het aan een bot" niet automatisch een verbetering is ten opzichte van bestaande opties, vooral niet wanneer nauwkeurigheid en veiligheid voorop staan.

🩺 Apps en bots met AI-functionaliteit dringen de geneeskunde binnen. Artsen hebben daar vragen over.

Een onderzoek duikt in de manier waarop AI-gezondheidsapps en chatbots hun weg vinden naar de klinische praktijk – soms sneller dan richtlijnen, toezicht of gewoonweg wetenschappelijk bewijs kunnen bijbenen.

Artsen maken zich zorgen over de betrouwbaarheid, de mogelijke schade voor patiënten en wie verantwoordelijk is wanneer een chatbot advies geeft dat zelfverzekerd klinkt, maar onjuist is... net zoals een navigatiesysteem dat je aanraadt om een ​​meer in te rijden, maar dan met medicijnen.

📈 De CEO van OpenAI zegt dat ChatGPT weer een maandelijkse groei van meer dan 10% laat zien, meldt CNBC

De CEO van OpenAI heeft naar verluidt gezegd dat ChatGPT weer een maandelijkse groei van meer dan 10% laat zien - wat een grote prestatie is als je ervan uitgaat dat de fase waarin "iedereen het al geprobeerd heeft" zijn hoogtepunt al bereikt had.

Het suggereert dat er nog steeds veel nieuwe gebruikers bijkomen, of dat bestaande gebruikers steeds meer redenen vinden om te blijven – of allebei. Hoe dan ook, het product gedraagt ​​zich minder als een hype en meer als een vaste infrastructuur… althans, zo lijkt het.

Veelgestelde vragen

Wat is het voorgestelde "akkoord" over AI-datacenters waar de VS op aandringt?

Het wordt omschreven als een pakket aan afspraken waar grote bedrijven mee akkoord zouden gaan bij de bouw of exploitatie van grote AI-datacenters. Het doel is om de verwachtingen te standaardiseren, zodat deze enorme computerprojecten niet verspreid of inconsistent raken tussen verschillende bedrijven. Hoewel de details nog onduidelijk lijken, ligt de nadruk op praktische zaken: energieverbruik, beveiliging en mogelijk een vorm van rapportage.

Waarom zou de VS willen dat bedrijven een overeenkomst tekenen voor AI-datacenters?

Een overeenkomst kan gedeelde basisverwachtingen vaststellen zonder dat wetgevers voor elk uitzonderlijk geval een nieuwe regel hoeven op te stellen. Nu AI-datacenters zich snel uitbreiden, maken beleidsmakers zich vaak zorgen over de impact op het elektriciteitsnet, veiligheidsrisico's en operationele transparantie. Een veelgebruikte strategie is om de grootste spelers vroegtijdig op één lijn te brengen, zodat goede praktijken zich sneller verspreiden en de verantwoordelijkheid gemakkelijker te traceren is als er problemen ontstaan.

Welke soorten afspraken zouden er in een overeenkomst voor AI-datacenters kunnen worden opgenomen?

Op basis van de geopperde plannen zouden de afspraken betrekking kunnen hebben op energieplanning (hoe energie wordt opgewekt en beheerd), veiligheidsmaatregelen (fysiek en cyberbeveiliging) en een vorm van rapportage of openbaarmaking. In veel pijpleidingen fungeert rapportage als een soort 'lichte handhavingslaag' die de normen begrijpelijk en meetbaar maakt. Als het pact vrijwillig is, kunnen die afspraken worden geformuleerd als richtlijnen die later de regelgeving helpen vormgeven.

Waar gaat de rechtszaak over Google's AI-tool voor het maken van films, genaamd "Flow"?

Autodesk klaagt Google aan vanwege de naam "Flow", omdat Autodesk deze naam al gebruikte voor software voor productie- en VFX-management. Het geschil wordt gepresenteerd als een merk- en merkconflict, waarbij Google er bovendien van wordt beschuldigd dat het eerder had aangegeven de naam niet commercieel te willen gebruiken, maar later toch merkrechten heeft aangevraagd. Dergelijke rechtszaken draaien vaak om merkprioriteit en de kans op verwarring.

Wat betekent het dat AI niet beter was dan andere methoden voor medisch advies aan patiënten?

Het suggereert dat "vraag het een bot" niet automatisch nauwkeuriger of veiliger is dan de bestaande manieren waarop patiënten advies inwinnen. Dat kan geruststellend zijn als je je zorgen maakt over overmoedige antwoorden van symptoomcheckers of chatbots. Het sluit de potentiële waarde van AI in de gezondheidszorg niet uit, maar onderstreept wel de noodzaak van bewijs, toezicht en zorgvuldige integratie, waar fouten schade kunnen veroorzaken.

Waarom maken artsen zich zorgen over AI-gestuurde gezondheidsapps en chatbots?

Artsen maken zich zorgen over de betrouwbaarheid, mogelijke schade voor de patiënt en wie verantwoordelijk is wanneer een hulpmiddel zelfverzekerd maar onjuist advies geeft. De bezorgdheid betreft niet alleen de nauwkeurigheid, maar ook hoe patiënten de resultaten interpreteren en of het systeem mensen aanzet tot onveilige zelfzorg. In de klinische praktijk kan onduidelijke verantwoordelijkheid een groot risico vormen: patiënten vertrouwen het hulpmiddel mogelijk, artsen hebben er geen controle over en de adviezen lopen mogelijk achter op de implementatie ervan.

AI-nieuws van gisteren: 8 februari 2026

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog