AI-nieuws, 28 januari 2026

Overzicht van AI-nieuws: 28 januari 2026

🧬 DeepMind lanceert AlphaGenome om genetische oorzaken van ziekten op te sporen

DeepMind heeft AlphaGenome onthuld, een AI-systeem dat is ontworpen om te voorspellen hoe DNA-mutaties de genregulatie veranderen – in feite wanneer genen worden geactiveerd, waar en hoe sterk. Het kan enorme stukken DNA in één keer scannen, inclusief de uitgestrekte niet-coderende gebieden die vaak aanvoelen als biologische donkere materie.

De boodschap is vrij direct: snellere identificatie van welke mutaties er echt toe doen voor zaken als kankerrisico en complexe erfelijke ziekten. Als het werkt zoals beloofd, besteden onderzoekers minder tijd aan gissen en meer tijd aan het testen van de juiste dingen – wat misschien voor de hand ligt, maar in feite de kern van de zaak is.

🧑💼 Kunstmatige intelligentie zal banen kosten, geeft Liz Kendall toe

De Britse minister van Technologie heeft openlijk gezegd dat de invoering van AI banenverlies zal veroorzaken – niet de gebruikelijke "het komt wel goed, beloofd"-houding. Ze wees op de onzekerheid over startersfuncties voor afgestudeerden in sectoren zoals recht en financiën, en deed niet alsof er een exact aantal te noemen viel.

Tegelijkertijd zet de overheid vol in op aanpassing: een grote inspanning om miljoenen werknemers te trainen in basisvaardigheden op het gebied van AI, met als doel het Verenigd Koninkrijk sneller AI te laten omarmen. Het is de klassieke spanning – ja, er gaan banen verloren, ja, er komen banen bij, maar nee, de overgang zal niet soepel verlopen.

🗞️ Het VK dringt er bij Google op aan om websites de mogelijkheid te bieden zich af te melden voor AI-overzichten

De Britse mededingingsautoriteiten hebben wijzigingen voorgesteld waardoor uitgevers ervoor kunnen kiezen hun content niet te laten gebruiken voor Google's AI Overviews – of voor het trainen van losstaande AI-modellen – zonder dat dit nadelige gevolgen heeft voor hun reguliere zoekresultaten. Dat "zonder nadelige gevolgen" is hier cruciaal.

Het idee is om de machtsverhoudingen opnieuw in evenwicht te brengen, aangezien AI-samenvattingen de manier waarop mensen klikken (of juist niet klikken) veranderen. Googles reactie was in feite: zoekgedrag verandert, we overwegen meer controlemechanismen, maar maak van het product geen onhandig gefragmenteerde versie van zichzelf... wat op zich terecht is, maar ook wel handig.

🛡️ Uw gegevens blijven veilig wanneer een AI-agent op een link klikt

OpenAI beschreef een specifiek beveiligingsrisico voor AI-agenten: data-exfiltratie via URL's. Hierbij misleidt een aanvaller een AI om een ​​URL te laden die stiekem privé-informatie in de queryreeks verbergt. Zelfs als het model het geheim nooit expliciet uitspreekt, kan het verzoek zelf de informatie lekken. Een gemene, maar verrassend eenvoudige methode.

Hun oplossing is een simpele regel met scherpe randen: agents mogen alleen URL's automatisch ophalen die al openbaar zijn en waarvan bekend is dat ze bestaan ​​via een onafhankelijke webindex. Als een link niet als openbaar wordt geverifieerd, moet het systeem vertragen en de gebruiker de controle teruggeven met waarschuwingen – opzettelijke wrijving, maar wel de goede soort.

🇪🇺 Het volgende hoofdstuk voor AI in de EU

OpenAI publiceerde een op de EU gericht plan waarin een probleem van "capaciteitsoverschot" wordt geschetst: modellen kunnen meer dan waar mensen en bedrijven ze momenteel voor gebruiken, en die kloof dreigt te leiden tot ongelijke winsten in verschillende landen. Het is alsof je een raceauto hebt en er alleen mee naar de winkel om de hoek rijdt... alleen is die winkel om de hoek je hele economie.

Naast de retoriek zijn er ook concrete stappen: een programma dat duizenden Europese mkb-bedrijven moet trainen in AI-vaardigheden, een subsidie ​​voor onderzoek naar de veiligheid en het welzijn van jongeren, en een uitgebreidere samenwerking met overheden. Het is deels een beleidsnota, deels een campagne om het beleid te implementeren – en ja, die twee aspecten lopen in elkaar over.

🔐 AI-risico's en cybergovernance: het concept-cyber-AI-profiel van NIST

Een nieuw conceptprofiel van NIST (gebaseerd op een analyse van een artikel van een advocatenkantoor) richt zich op hoe organisaties AI moeten integreren in cybergovernance – zowel wat betreft het beveiligen van de AI-systemen zelf als het inzetten van AI ter verbetering van de cyberverdediging. Op papier vrijwillig, maar "vrijwillig" wordt na verloop van tijd vaak als vanzelfsprekend beschouwd.

De werkgroepen werken aan thema's zoals het beveiligen van AI-componenten en het inzetten van AI-gestuurde verdediging – inclusief overwegingen met betrekking tot de toeleveringsketen en agentachtige automatisering in responsworkflows. De algemene strekking is: beschouw AI als zowel een nieuw aanvalsoppervlak als een nieuwe set hulpmiddelen, en doe niet alsof die twee elkaar opheffen.

Veelgestelde vragen

Wat is DeepMind's AlphaGenome en welk probleem probeert het op te lossen?

AlphaGenome is een AI-systeem dat volgens DeepMind kan voorspellen hoe DNA-mutaties de genregulatie beïnvloeden – wanneer genen worden geactiveerd, waar dat gebeurt en hoe sterk. Het is ontworpen om zeer grote stukken DNA tegelijk te scannen, inclusief de niet-coderende gebieden die notoir moeilijk te interpreteren zijn. Het doel is om onderzoekers te helpen opsporen welke mutaties het meest waarschijnlijk ziekten veroorzaken, zodat laboratoriumonderzoek zich kan concentreren op de meest veelbelovende aanwijzingen.

Hoe kan AlphaGenome onderzoekers helpen om sneller genetische oorzaken van ziekten te vinden?

In veel genetische workflows ontstaat het knelpunt bij het terugbrengen van enorme lijsten met varianten tot de weinige die plausibel de genactiviteit beïnvloeden. AlphaGenome belooft dit giswerk te verminderen door te voorspellen hoe specifieke mutaties de regulatie van lange DNA-sequenties zouden kunnen veranderen. Als die voorspellingen kloppen, kunnen teams prioriteit geven aan experimenten rond de varianten die het meest waarschijnlijk verband houden met kankerrisico of complexe erfelijke aandoeningen, waardoor er minder tijd verloren gaat aan doodlopende wegen.

Zal de invoering van AI daadwerkelijk banen kosten in het Verenigd Koninkrijk, en welke functies lopen het meeste risico?

De Britse minister van Technologie, Liz Kendall, zei dat de invoering van AI zal leiden tot banenverlies en uitte haar bezorgdheid over startersfuncties. Ze wees specifiek op sectoren zoals recht en financiën, waar taken aan het begin van een carrière wellicht beter geautomatiseerd kunnen worden. Tegelijkertijd benadrukt de overheid aanpassing door middel van grootschalige training in basisvaardigheden op het gebied van AI, en erkent dat de overgang ongelijkmatig kan verlopen, zelfs als er nieuwe functies ontstaan.

Kunnen Britse uitgevers zich afmelden voor Google's AI Overviews zonder dat dit ten koste gaat van hun zoekresultaten?

De Britse mededingingsautoriteiten hebben wijzigingen voorgesteld waardoor uitgevers ervoor kunnen kiezen hun content niet te laten gebruiken voor Google's AI-overzichten – of voor het trainen van losstaande AI-modellen – zonder dat dit nadelige gevolgen heeft voor hun reguliere zoekresultaten. Het doel is om de machtsverhoudingen te herstellen nu AI-samenvattingen het klikgedrag beïnvloeden. Google heeft aangegeven dat het meer controle overweegt, maar waarschuwt tegelijkertijd voor een gefragmenteerde zoekervaring.

Hoe kan een AI-agent privégegevens lekken door simpelweg op een link te klikken?

OpenAI beschreef een risico op data-exfiltratie via URL's, waarbij een aanvaller een AI-agent ertoe aanzet een link op te halen die stiekem gevoelige informatie in de queryreeks verbergt. Zelfs als het model het geheim nooit in de output herhaalt, kan het verzoek zelf het wel verzenden. Een veelgebruikte maatregel om dit te voorkomen is het toevoegen van "bewuste weerstand", zoals waarschuwingen en het vereisen van gebruikersbevestiging wanneer een link niet onafhankelijk is geverifieerd als openbaar.

Wat is het conceptprofiel van NIST voor cyber-AI en hoe verandert het de cybergovernance?

Een concept-NIST-profiel (besproken aan de hand van een juridische analyse) beschrijft AI als iets dat zowel beveiligd moet worden als ingezet kan worden in cyberverdediging. Het profiel groepeert werkzaamheden rond thema's zoals het beveiligen van AI-componenten, het aanpakken van risico's in de toeleveringsketen en het inzetten van AI-gestuurde verdedigingsmechanismen – waaronder meer geautomatiseerde, agentachtige responsworkflows. Hoewel dergelijke raamwerken formeel vrijwillig zijn, worden ze vaak de facto een vereiste, waardoor organisaties gedwongen worden AI formeel te integreren in hun governance en controles.

AI-nieuws van gisteren: 27 januari 2026

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog