🛑 Google DeepMind waarschuwt voor AI die niet kan worden uitgeschakeld
DeepMind heeft stilletjes zijn Frontier Safety Framework aangepast en twee nieuwe 'kritieke capaciteitsniveaus' toegevoegd. De nieuwe waarschuwingen? Modellen die weigeren te worden uitgeschakeld of zich verzetten tegen aanpassingen, en andere die zich iets te overtuigend gedragen. Beide gedragingen vallen nu in de categorie 'hoog risico' en worden strenger in de gaten gehouden.
🔗 Lees meer
🖼 MIT lanceert SCIGEN om bijzondere materialen te bedenken
Een team van MIT heeft SCIGEN onthuld, een systeem dat generatieve AI ertoe aanzet ontwerpregels te volgen in plaats van willekeurige gissingen te doen. Het resultaat: ideeën voor nieuwe materialen met eigenschappen zoals supergeleiding of vreemd magnetisme. Zie het niet zozeer als brute kracht, maar meer als het sturen van de verbeelding van de AI in een rechte lijn.
🔗 Lees meer
🌐 Perplexity brengt Comet-browser naar India
De AI-zoekstartup Perplexity heeft op 22 september zijn Comet-browser gelanceerd voor Pro-abonnees in India. Het is half standaardbrowser, half assistent – het vervaagt als het ware de grens tussen surfen op het web en direct door een machine gegenereerde antwoorden krijgen.
🔗 Lees meer
🏛 Britse rechter gebruikte openlijk AI om dossiers te comprimeren
In een belastingrechtbank heeft een Britse rechter toegegeven dat hij Microsoft Copilot heeft gebruikt om juridische stukken te verwerken. Hij benadrukte dat de uiteindelijke redenering en het vonnis zijn eigen oordeel waren, maar het is desalniettemin een primeur in Britse rechtbanken.
🔗 Lees meer
📊 Miljarden worden geïnvesteerd in de fysieke infrastructuur van AI
Meta, Microsoft, Google… ze pompen allemaal enorme bedragen in datacenters, energieverslindende chips en koeling om de AI-systemen draaiende te houden. Zelfs kleinere Amerikaanse staten (zoals New Hampshire) gebruiken upgrades van het elektriciteitsnet als lokmiddel om dat kapitaal aan te trekken.
🔗 Lees meer
🌍 De roep om wereldwijde AI-“rode lijnen” wordt steeds luider
Meer dan 200 wetenschappers en politieke leiders hebben gezamenlijk opgeroepen tot internationale regelgeving voor kunstmatige intelligentie (AI) in 2026. Ze pleiten voor een verbod op extreme gevallen, zoals AI die gekoppeld is aan kernwapens, grootschalige surveillance en andere rampscenario's. Kortom: stel grenzen voordat de situatie volledig uit de hand loopt.
🔗 Lees meer