🏛️ De overheid gaat een nieuw laboratorium oprichten om het Verenigd Koninkrijk aan de top te houden op het gebied van AI-doorbraken ↗
Het Verenigd Koninkrijk richt een door de overheid gesteund Fundamenteel AI-onderzoekslaboratorium op, dat wordt gepresenteerd als "fundamenteel" onderzoek - het soort onderzoek dat risicovol en tijdrovend is, maar soms zulke resultaten oplevert dat iedereen erbij versteld staat. ( GOV.UK )
De focus ligt niet alleen op "grotere modellen, meer GPU's", maar ook op het aanpakken van hardnekkige problemen zoals hallucinaties, een kort geheugen en onvoorspelbaar redeneren, en op het bieden van toegang tot krachtige computerkracht aan onderzoekers via de AI Research Resource. Klinkt heel verstandig... en stiekem ook als een poging om te voorkomen dat de beste talenten van het Verenigd Koninkrijk direct naar andere landen verdwijnen. ( GOV.UK )
🧨 De CEO van Nvidia hint op het einde van investeringen in OpenAI en Anthropic ↗
Jensen Huang geeft aan dat Nvidia mogelijk niet op dezelfde manier zal blijven investeren in baanbrekende AI-laboratoria. De dynamiek van beursintroducties (en de enorme omvang van de investeringen waarover gesproken wordt) maakt dit soort financiering lastiger te realiseren. ( Reuters )
Het is een opvallende verandering in toon: Nvidia is de koning van de mining-industrie, maar het bedrijf laat doorschemeren dat "aandelen in mijnbouwbedrijven bezitten" niet langer de beste strategie is. Of misschien is het gewoon een openlijke terughoudendheid, zoals CEO's dat doen, net als ademhalen. ( Reuters )
🧩 Exclusief: Groot technologiebedrijf steunt Anthropic in strijd met Pentagon, terwijl investeerders aandringen op de-escalatie van het conflict over AI-beveiligingsmaatregelen ↗
De confrontatie tussen Anthropic en het Pentagon loopt uit op een ware drukkoker: investeerders willen naar verluidt dat de gemoederen bedaren, terwijl het bedrijf vasthoudt aan zijn standpunt over de beveiligingsmaatregelen (met name rondom surveillance). ( Reuters )
De onderliggende boodschap van het verhaal is bijna luider dan de tekst zelf: in het AI-tijdperk is de formulering van contracten geen "juridisch gezeur", maar in feite productbeleid - en het bepaalt of een model een instrument, een wapen of een enorme aansprakelijkheid wordt. ( Reuters )
🪖 Sam Altman geeft toe dat OpenAI geen controle heeft over het gebruik van AI door het Pentagon ↗
Altman zou medewerkers hebben verteld dat OpenAI geen controle heeft over hoe het Pentagon de AI gebruikt zodra deze is ingezet. Dit komt hard aan, omdat het precies de angst benoemt die al langer speelt. ( The Guardian )
De bredere context wordt gevormd door toenemende wrijving tussen "we helpen, maar wel onder bepaalde voorwaarden" en "we helpen, punt uit", plus interne en publieke tegenreacties wanneer militaire steun overhaast of opportunistisch aanvoelt. De ethische dilemma's zijn hier minder scherp afgebakend en meer een natte verfvlek – iedereen trapt erin en vervolgens wordt er gediscussieerd over wiens schoen het is. ( The Guardian )
🧬 Nieuw AI-onderzoeksprogramma in de genomica met het Sanger Institute en Google DeepMind ↗
Het Wellcome Sanger Institute lanceert een door DeepMind gefinancierde academische fellowship gericht op de toepassing van AI in de genomica. Dit is de eerste keer dat een DeepMind-fellow zich specifiek op dit gebied richt. ( sanger.ac.uk )
Wat interessant (en eerlijk gezegd een beetje verfrissend) is, is de nadruk op onderbelichte genomische problemen waar AI nog niet alomtegenwoordig is – plus de expliciete vermelding dat DeepMind het onderzoek van de onderzoeker niet aanstuurt. Het is alsof je iemand een raket geeft en zegt: "Ga iets ontdekken", in plaats van: "Ga onze routekaart optimaliseren." ( sanger.ac.uk )
Veelgestelde vragen
Wat is het door de Britse overheid gesteunde Fundamental AI Research Lab en wat gaat het doen?
Het door de overheid gesteunde Fundamental AI Research Lab wordt gepresenteerd als een baanbrekend onderzoeksproject – risicovol werk dat mogelijk pas na verloop van tijd vruchten afwerpt. In plaats van zich alleen te richten op het opschalen van steeds grotere modellen, wil het lab hardnekkige problemen aanpakken zoals hallucinaties, een kort geheugen en onvoorspelbaar redeneren. De boodschap is dat doorbraken voortkomen uit fundamentele principes, en niet simpelweg uit het toevoegen van meer GPU's.
Hoe zou het UK Fundamental AI Research Lab onderzoekers toegang kunnen geven tot geavanceerde computerkracht?
Naast het UK Fundamental AI Research Lab benadrukt het plan de toegang tot aanzienlijke rekenkracht via de AI Research Resource. In de praktijk betekent dit dat onderzoekers experimenten kunnen uitvoeren die anders door kosten of infrastructuur beperkt zouden worden. Het stelt teams ook in staat om ideeën te testen op een schaal waarop problemen zoals betrouwbaarheid en robuustheid concreet worden, in plaats van alleen theoretisch.
Waarom legt het Verenigd Koninkrijk zoveel nadruk op hallucinaties, een kort geheugen en onvoorspelbaar redeneren?
Die zwakke punten komen vaak aan het licht tijdens de implementatie en kunnen het vertrouwen snel ondermijnen. De aangegeven focus suggereert dat het doel niet alleen capaciteit is, maar ook betrouwbaarheid: het verminderen van verzonnen resultaten, het verbeteren van de manier waarop modellen langere contexten verwerken en het minder grillig maken van redeneringen. Dat soort werk is vaak trager en riskanter, en daarom wordt het gepresenteerd als fundamenteel onderzoek.
Wat betekent de veranderde toon van Nvidia ten aanzien van investeringen in OpenAI of Anthropic nu eigenlijk?
De berichtgeving interpreteert het als een hint dat Nvidia mogelijk niet op dezelfde manier zal blijven investeren in baanbrekende laboratoria, vooral omdat de dynamiek van beursintroducties en de enorme investeringsbedragen die strategie bemoeilijken. Zelfs als toonaangevend bedrijf in AI-hardware suggereert dit dat aandelenbezit niet altijd de beste strategie is. Het kan echter ook een voorzichtige boodschap zijn, wat gebruikelijk is in uitspraken van topmanagers.
Waarom is het geschil tussen Anthropic en het Pentagon over "beschermingsbepalingen" zo'n groot probleem?
De kern van het artikel is dat contractbepalingen productbeleid kunnen worden, vooral als het gaat om bewaking en andere gevoelige toepassingen. Investeerders zouden de spanningen willen verminderen, terwijl het bedrijf vasthoudt aan zijn waarborgen. Bij veel AI-implementaties bepalen deze clausules waarvoor het systeem gebruikt mag worden en welke risico's het bedrijf feitelijk accepteert.
Wat bedoelt Sam Altman als hij zegt dat OpenAI geen controle heeft over hoe het Pentagon AI gebruikt?
Het beschrijft een praktische beperking: zodra een tool is ingezet, heeft de oorspronkelijke ontwikkelaar mogelijk beperkte mogelijkheden om het gebruik ervan door anderen te reguleren. Dat is een belangrijk punt, omdat het de kern van de angst raakt die mensen uiten over de inzet van militaire tools: er kunnen regels bestaan in de contractfase, maar de handhaving ervan kan moeilijk zijn. Het weerspiegelt ook een bredere spanning tussen "hulp, met beperkingen" en "hulp, ongeacht de omstandigheden"