🌍 OpenAI streeft ernaar het wereldwijde gebruik van AI in het dagelijks leven te vergroten ↗
OpenAI zet in op een meer landgerichte aanpak voor de implementatie van AI. De boodschap is: behandel AI niet langer als een speeltje in een laboratorium, maar integreer het in openbare diensten die mensen dagelijks gebruiken.
Enkele voorbeelden die genoemd worden, zijn toepassingen in het onderwijs (denk aan tools zoals ChatGPT op grote schaal) en werk aan praktische systemen zoals waarschuwingssystemen voor watergerelateerde rampen. Het is een boodschap die heel erg in het teken staat van "dit moet in stilte praktisch zijn", en dat spreekt me wel aan... ook al is het natuurlijk ook een bedrijfsstrategie.
⚡ OpenAI belooft de energiekosten voor Stargate te betalen ↗
OpenAI zegt dat het de energiekosten voor de bouw van zijn Stargate-datacenter zal dekken, omdat het bedrijf hiermee wil voorkomen dat de lokale elektriciteitsprijzen voor anderen stijgen.
Dat kan betekenen dat er geïnvesteerd wordt in nieuwe energiecapaciteit, opslag, upgrades van het transmissienetwerk of andere infrastructuur die voorkomt dat het elektriciteitsnet bezwijkt onder de belasting. Het is deels een kwestie van goed burgerschap, deels preventieve politiek – en beide aspecten kunnen tegelijkertijd waar zijn, wat irritant is.
🎧 OpenAI streeft ernaar om in 2026 zijn eerste apparaat op de markt te brengen, en dat zouden oordopjes kunnen zijn ↗
De geruchten over hardware van OpenAI blijven zich opstapelen, en dit gerucht suggereert dat het eerste apparaat oordopjes zouden kunnen zijn - een "AI-first" gadget dat je draagt, in plaats van alleen een app die je opent.
Er gaan geruchten rond over een codenaam ("Sweet Pea") en ambitieuze plannen voor de chip, waarbij meer verwerking op het apparaat zelf plaatsvindt in plaats van steeds naar de cloud te worden gestuurd. Het vervangen van de oordopjesgewoonten van mensen is als proberen een rivier om te leiden met een lepel... maar goed, gewaagdere productexperimenten zijn in het verleden wel eens succesvol gebleken.
📜 De nieuwe 'grondwet' van Claude bij Anthropic: wees behulpzaam en eerlijk, en vernietig de mensheid niet ↗
Anthropic publiceerde een bijgewerkte versie van "Claude's Grondwet" - in feite een blauwdruk van waarden en gedrag bedoeld om vorm te geven aan hoe Claude reageert, redeneert en weigert.
Het stelt scherpere grenzen aan werkelijk gevaarlijke zaken (wapens, grootschalige schade, machtsgreep, de meest gruwelijke misdaden), terwijl het tegelijkertijd meer de nadruk legt op genuanceerde 'principes' in plaats van rigide regels. Een verrassend pittig punt: het behandelt openlijk de vraag of geavanceerde AI's morele overweging verdienen – niet door te beweren dat ze dat doen, maar door de vraag als actueel te beschouwen.
🛡️ Nieuwe beveiligings- en AI-detectiefuncties voor Google Workspace voor Onderwijs ↗
Google heeft nieuwe beveiligingsfuncties voor Workspace for Education aangekondigd, met een opvallende focus op het detecteren en verifiëren van door AI gegenereerde content. Desinformatie op scholen verspreidt zich immers als een lopend vuurtje en verdwijnt nooit helemaal van het tapijt.
Een van de hoogtepunten is de verificatie via SynthID voor door AI gegenereerde afbeeldingen en video's in de Gemini-app, samen met verbeterde beveiligingsmaatregelen zoals ransomwaredetectie en eenvoudiger bestandsherstel voor Drive op de desktop. Het is een combinatie van serieuze veiligheidsmaatregelen en het vertrouwen dat je in ons stelt in de klas, wat... eerlijk gezegd terecht is.
🚫 De CEO van Google DeepMind herhaalt dat er 'geen plannen' zijn voor Gemini-advertenties en is verrast dat ChatGPT ze 'zo vroeg' heeft toegevoegd ↗
Demis Hassabis van DeepMind herhaalde dat Gemini geen plannen heeft voor advertenties en hij klonk enigszins verbaasd dat ChatGPT "zo vroeg" al de stap naar advertenties zette
Het is een slimme positioneringszet: de assistent als product, niet als reclamebord. Dat gezegd hebbende, "geen plannen" is binnen het bedrijf een manier om te zeggen "vraag het me later nog eens", dus... we zullen zien hoe standvastig die belofte blijkt te zijn.
🏛️ Nieuwe richtlijnen zullen het Verenigd Koninkrijk helpen om AI effectief en verantwoord te reguleren ↗
Het Alan Turing Institute heeft een raamwerk voor regelgevingscapaciteit en een zelfbeoordelingsinstrument gepubliceerd, bedoeld om Britse toezichthouders te helpen evalueren of ze toegerust zijn om toezicht te houden op AI.
Het is allesbehalve glamoureus - checklists, competentiefactoren, beschrijvingen van "hoe goed het eruitziet" - maar dat is juist de bedoeling. Echt goed bestuur ziet er vaak uit als papierwerk met scherpe randen, niet als flitsende presentaties... of zo lijkt het tenminste.
Veelgestelde vragen
Wat houdt OpenAI's "landgerichte" aanpak in om het wereldwijde gebruik van AI in het dagelijks leven te vergroten?
Het is een verschuiving van het beschouwen van AI als een op zichzelf staand product naar het integreren ervan in de publieke diensten waar mensen dagelijks op vertrouwen. Het doel is om AI in te bouwen in praktische, interactieve systemen, in plaats van het te laten verzanden in demonstraties in laboratoria. Voorbeelden die worden genoemd, zijn grootschalige implementaties in het onderwijs en publieksgerichte veiligheidstools. Het wordt gepresenteerd als een stille, maar nuttige bijdrage, die tegelijkertijd de bredere adoptiestrategie van OpenAI ondersteunt.
Hoe zou het plan van OpenAI van pas kunnen komen in publieke diensten zoals onderwijs of rampenbestrijding?
In het onderwijs draait het concept om tools in de stijl van ChatGPT die op grote schaal worden ingezet, zodat scholen AI kunnen integreren in de reguliere leerprocessen. Bij rampenbestrijding noemde OpenAI systemen voor vroegtijdige waarschuwing bij wateroverlast als voorbeeld van een "stille maar praktische" infrastructuur. De rode draad is hulp die wordt geboden op het moment dat die nodig is, met tools die zijn ingebed in bestaande diensten. Succes zal waarschijnlijk afhangen van betrouwbaarheid, toezicht en een gedegen integratie.
Waarom heeft OpenAI gezegd dat het de energiekosten voor de bouw van het Stargate-datacenter zal dekken?
OpenAI presenteerde het als een poging om de lokale elektriciteitsprijzen niet te verhogen door een enorme nieuwe vraag naar elektriciteit op het net te creëren. De kosten zouden gedekt kunnen worden door te investeren in nieuwe energiecapaciteit, opslag, upgrades van het transmissienetwerk of andere infrastructuur die de druk op het net verlicht. Het wordt gezien als een gebaar van goede buurmanschap en een manier om politieke en maatschappelijke tegenstand te voorkomen. In de praktijk geeft het aan dat de impact op het energieverbruik nu centraal staat in de plannen voor de schaalvergroting van AI.
Wat is de laatste stand van zaken rond de hardwaregeruchten van OpenAI? Zijn oordopjes met AI als belangrijkste technologie echt haalbaar?
Volgens de berichten wil OpenAI zijn eerste apparaat in 2026 op de markt brengen, mogelijk in de vorm van oordopjes. Het concept is een draagbaar apparaat met AI als uitgangspunt, dat je continu gebruikt, en niet zomaar een app die je af en toe opent. Er wordt gesproken over een codenaam ("Sweet Pea") en de ambitie om meer processen op het apparaat zelf te verwerken in plaats van volledig op de cloud te vertrouwen. Deze aanpak zou, afhankelijk van de implementatie, interacties sneller en privacyvriendelijker kunnen maken.
Wat is Anthropics bijgewerkte versie van "Claude's Grondwet" en wat is er veranderd?
Het is een gepubliceerd waarden- en gedragsplan dat is ontworpen om te bepalen hoe Claude reageert, redeneert en verzoeken weigert. De update legt de nadruk op scherpere grenzen rond werkelijk gevaarlijke gebieden zoals wapens, grootschalige schade en machtswellust. Het neigt ook naar meer genuanceerde "principes" in plaats van rigide regels. Opvallend is dat de vraag naar morele overwegingen voor geavanceerde AI's als een open kwestie wordt beschouwd in plaats van een vaststaand feit.
Welke nieuwe beveiligings- en AI-detectiefuncties heeft Google toegevoegd aan Workspace for Education?
Google heeft verbeterde beveiligingsmaatregelen voor Workspace for Education aangekondigd, met een focus op de detectie en verificatie van door AI gegenereerde content. Een belangrijk onderdeel is de verificatie via SynthID voor door AI gegenereerde afbeeldingen en video's in de Gemini-app. De update vermeldt ook ransomware-detectie en een eenvoudigere bestandshersteloptie voor Drive op de desktop. Over het algemeen is het een veiligheidsmaatregel gericht op het onderwijs, bedoeld om scholen te helpen bij het effectiever beheren van desinformatie en incidenten.
Zal Google's Gemini advertenties weergeven, en waarom heeft DeepMind gereageerd op het feit dat ChatGPT advertenties toevoegt?
DeepMind-CEO Demis Hassabis herhaalde dat Gemini "geen plannen" heeft voor advertenties en sprak zijn verbazing uit dat ChatGPT "zo vroeg" al advertenties ging aanbieden. Deze boodschap positioneert Gemini als een assistent als product in plaats van een assistent als reclamebord. Tegelijkertijd laat "geen plannen" ruimte voor toekomstige veranderingen zonder een bindende belofte te doen. Voor gebruikers benadrukt dit een opkomende tweedeling in het bedrijfsmodel van AI-assistenten voor consumenten.
Wat is het doel van het raamwerk voor de regulering van AI-capaciteit van het Alan Turing Institute?
Het is een raamwerk voor regelgevingscapaciteit en een zelfevaluatietool die Britse toezichthouders helpt te beoordelen of ze toegerust zijn om effectief toezicht te houden op AI. De aanpak is bewust niet aantrekkelijk: checklists, capaciteitsfactoren en beschrijvingen van hoe een goede aanpak eruitziet. Het doel is om governance operationeel te maken, niet alleen een ideaalbeeld. Het is vooral nuttig voor toezichthouders en beleidsteams die lacunes moeten identificeren voordat de handhaving of het toezicht wordt opgeschaald.