AI-nieuws, 20 januari 2026

Overzicht van AI-nieuws: 20 januari 2026

🧒 OpenAI introduceert leeftijdsvoorspelling op ChatGPT

OpenAI is begonnen met het implementeren van een 'leeftijdsvoorspellingslaag' in ChatGPT - een stil systeem dat probeert te achterhalen of een account waarschijnlijk van een minderjarige is en vervolgens extra veiligheidsmaatregelen inschakelt. Als het systeem denkt dat je jonger bent dan 18, wordt de toegang tot gevoelige content automatisch beperkt.

Als het systeem een ​​verkeerde inschatting maakt (wat soms zal gebeuren), is de oplossing identiteitsverificatie via Persona, met behulp van een op selfies gebaseerd proces. Het is ook verweven met bredere platformwijzigingen zoals experimenten met een 'volwassen modus' en stappen richting monetisatie, die eerlijk gezegd aanvoelen als een heleboel ballen tegelijk in de lucht houden.

🏦 Parlementsleden zeggen dat Groot-Brittannië 'AI-stresstests' nodig heeft voor de financiële sector

Britse wetgevers zeggen eigenlijk: wees niet zo laks met AI in de financiële wereld. Hun argument is dat toezichthouders en de overheid AI-systemen grondiger moeten testen, net zoals banken aan stresstests worden onderworpen – want fouten in de financiële wereld verspreiden zich snel.

Het probleem doet zich pas op grote schaal voor: vooringenomenheid, foutenketens, fraudepatronen en feedbackloops. Het is alsof je een peuter een bus laat besturen omdat de weg recht is... totdat dat ineens niet meer zo is.

🏛️ AI-experts aangesteld om de stad te helpen AI-kansen op een veilige manier te benutten

De Britse overheid heeft twee "AI-kampioenen" aangesteld om de adoptie van AI in de financiële sector te versnellen - met de gebruikelijke beloftes van groei, productiviteit, investeringen, al die mooie woorden.

Opvallend is de evenwichtsoefening: een energieke, daadkrachtige houding met een nadrukkelijke nadruk op veiligheid. Geruststellend... of licht komisch, afhankelijk van je stemming die dag.

💰 Humans&, een 'mensgerichte' AI-startup opgericht door voormalige medewerkers van Anthropic, xAI en Google, heeft een startkapitaal van $480 miljoen opgehaald

Humans& maakte een vliegende start met een enorme seed-financieringsronde en een team dat leest als een "AI-lab starterskit" - mensen afkomstig van grote modelleerbureaus en grote techbedrijven. Het uitgesproken doel is minder gericht op chatbots en meer op "mensen helpen coördineren en samenwerken", met systemen die kunnen functioneren tussen mensen en AI-agenten.

Het is een hoop geld voor iets dat nog zo vroeg in het jaar is, wat ofwel een teken is dat de markt vertrouwen heeft... ofwel dat we met z'n allen vuurwerk kopen omdat we het geluid mooi vinden. Eerlijk gezegd zou het allebei kunnen zijn.

⚖️ De juridische AI-startup Ivo haalt $55 miljoen op in de nieuwste financieringsronde

De AI-startup Ivo, gespecialiseerd in juridische dienstverlening, heeft nieuwe financiering binnengehaald om haar platform verder uit te bouwen en de verkoop op te schalen. Het bedrijf profiteert hiermee van de trend dat advocatenkantoren en interne juridische afdelingen tijdrovende, papierintensieve werkprocessen automatiseren.

Deze categorie blijft winnen omdat de waarde ervan direct en eenvoudig is: minder uren besteed aan repetitief documentwerk, minder dingen die door de mazen van het net glippen. Niet glamoureus, maar wel zeer declarabel.

🧠 Het Taiwanese Inventec zegt dat de beslissing over de H200-chip van Nvidia 'vast lijkt te zitten' aan de kant van China

Een Taiwanese serverfabrikant gaf aan dat de verkoop van de Nvidia H200 AI-chip in China vast lijkt te zitten. Dit impliceert dat het knelpunt niet alleen externe regelgeving is, maar ook goedkeuringen vanuit China of interne dynamiek.

Dit is de onglamoureuze realiteit van AI-hardware: iedereen praat over modellen en agents, maar de hele toekomst kan afhangen van een paar knelpunten, vergunningen en politieke spelletjes in de toeleveringsketen. Het is alsof je een raketlancering plant... en je dan realiseert dat je de sleutel van de brandstofklep bent vergeten.

Veelgestelde vragen

Wat is de leeftijdsvoorspelling van OpenAI op ChatGPT, en wat verandert er als je als jonger dan 18 wordt aangemerkt?

OpenAI heeft een onopvallende 'leeftijdsvoorspellingslaag' geïntroduceerd die probeert te achterhalen of een account waarschijnlijk van een minderjarige is. Als het systeem concludeert dat je jonger bent dan 18, past ChatGPT automatisch extra veiligheidsmaatregelen toe. In de praktijk betekent dit meestal strengere beperkingen voor content die als gevoeliger wordt beschouwd. Het doel is om risico's te verminderen zonder elke gebruiker te verplichten zijn of haar leeftijd vooraf te melden.

Wat gebeurt er als ChatGPT de leeftijd verkeerd inschat?

Als de leeftijdsvoorspelling op ChatGPT fout gaat en een volwassene als jonger dan 18 jaar wordt aangemerkt, is de aangegeven oplossing identiteitsverificatie. In deze uitrol wordt die verificatie afgehandeld via Persona met behulp van een op selfies gebaseerd proces. Na verificatie kan het account weer normaal worden gebruikt in plaats van achter strengere beveiligingsmaatregelen te blijven. Het is een afweging: minder risicovolle uitzonderlijke gevallen, maar extra frictie wanneer het systeem een ​​verkeerde inschatting maakt.

Hoe past de Persona-selfieverificatie in de veiligheidsaanpak van OpenAI?

Persona fungeert als mechanisme om onzekerheid over de leeftijd op te lossen wanneer de inferentie van het systeem als onbetrouwbaar wordt beschouwd. De op selfies gebaseerde identiteitsverificatie is bedoeld als een corrigerende stap na een onjuiste leeftijdsvoorspelling. Op veel platforms wordt dit soort stappen gebruikt om een ​​balans te vinden tussen veiligheid en toegang, zonder legitieme gebruikers permanent te blokkeren. Het wijst ook op meer handhaving op accountniveau, in plaats van alleen filtering op promptniveau.

Waarom voegt OpenAI nu een leeftijdsfilter toe, en wat heeft dat te maken met de "volwassen modus"?

Deze update gaat gepaard met bredere platformwijzigingen, waaronder experimenten met een 'volwassen modus' en stappen in de monetisatie die in dezelfde discussie worden genoemd. Leeftijdsvoorspelling op ChatGPT wordt in feite de schakelaar die bepaalt wie strengere standaardinstellingen krijgt en wie bredere toegang. Dat is handig voor een platform dat verschillende ervaringen test bij verschillende doelgroepen. Het kan ook de blootstelling aan riskantere content beperken, terwijl uitbreiding op andere gebieden mogelijk blijft.

Wat zijn "AI-stresstests" voor de Britse financiële sector, en waarom willen wetgevers ze?

Britse wetgevers pleiten voor "AI-stresstests" waarbij AI-systemen meer op banken worden behandeld: ze moeten onder druk worden gezet voordat problemen zich verspreiden. De vrees bestaat dat vooringenomenheid, foutenketens, fraudepatronen en feedbackloops pas op grote schaal aan het licht komen. In de financiële wereld kunnen kleine storingen zich snel verspreiden via nauw met elkaar verbonden systemen. Stresstests zijn bedoeld om zwakke punten eerder aan het licht te brengen, voordat er echt geld en echte klanten door worden getroffen.

Wie zijn de Britse "AI-kampioenen" voor de City, en wat is hun taak?

De Britse overheid heeft twee "AI-kampioenen" aangesteld om de adoptie van AI in de financiële sector te versnellen. Hun rol wordt omschreven als het helpen van de City om AI-kansen te benutten op een "veilige" manier. In de praktijk komt het neer op coördinatie en belangenbehartiging: het stimuleren van de toepassing, het ondersteunen van best practices en het afstemmen van belanghebbenden. Het geeft aan dat de overheid een snellere implementatie wil, met een zichtbaar veiligheidskader eromheen.

AI-nieuws van gisteren: 19 januari 2026

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog