🧯 OpenAI neemt een nieuwe Head of Preparedness aan om de schadelijke gevolgen van AI te voorspellen en te beperken ↗
OpenAI heeft een functie "Hoofd Paraatheid" gecreëerd - in feite de persoon die de taak heeft om de ergste plausibele toepassingen van grensmodellen te bedenken en vervolgens vangrails te bouwen die bestand zijn tegen druk (niet alleen op basis van indrukken en beleidsdocumenten).
De beschrijving legt sterk de nadruk op het modelleren, evalueren en beperken van dreigingen als een daadwerkelijk operationeel proces. Het is veiligheidswerk dat wordt gepresenteerd als softwareontwikkeling – enerzijds geruststellend, anderzijds enigszins verontrustend, omdat het suggereert dat de risico's nu productspecifiek zijn.
🧑⚖️ China publiceert conceptregels voor de regulering van AI met mensachtige interactie ↗
De Chinese cyberautoriteit heeft conceptregels verspreid die gericht zijn op AI-diensten die menselijke persoonlijkheden simuleren en gebruikers emotioneel betrekken – denk aan spraakzame metgezellen, flirterige assistenten, en al die andere dingen waarbij je je afvraagt: "Ben je echt?".
Een opvallend punt: aanbieders zouden moeten waarschuwen voor overmatig gebruik en ingrijpen als gebruikers tekenen van afhankelijkheid of verslaving vertonen. Het is ongebruikelijk expliciet over psychologische risico's – alsof iemand naar de trend van 'AI-vrienden' heeft gekeken en besloten heeft: niet zonder veiligheidsgordels.
🧩 Tot ziens, GPT-5. Hallo, Qwen ↗
Volgens Wired wint Qwen de harten niet door de absolute top te zijn op het gebied van benchmarks, maar door zijn open gewicht en het feit dat hij makkelijk te verstellen is – en dat is in de praktijk precies wat bouwers blijven kiezen. Het is het gereedschap dat je daadwerkelijk in handen kunt houden, niet het gereedschap dat achter een fluwelen koord verborgen zit.
Het artikel schetst dit als een bredere verschuiving: open modellen die naadloos in producten passen (en intern worden verfijnd) kunnen belangrijker zijn dan marginale winsten in ranglijsten. Een beetje gewaagd, misschien een tikje onvriendelijk voor gesloten laboratoria… maar de boodschap komt over.
🎁 OpenAI en Anthropic verdubbelen de gebruikslimieten voor AI tijdens de feestdagen: alles wat je moet weten ↗
OpenAI en Anthropic hebben de gebruikslimieten voor hun op programmeren gerichte tools tijdelijk verhoogd, waardoor individuele abonnees meer ruimte hebben om zwaardere workflows uit te voeren zonder direct tegen de limieten aan te lopen.
Mint merkt op dat de boost bedoeld is voor gevorderde gebruikers, waarna de boost na de actieperiode weer wordt teruggebracht naar de oude situatie. Het is een prettig "hier is meer energie"-moment, maar tegelijkertijd ook een stille herinnering dat capaciteit nog steeds een eindige, tastbare beperking is.
💻 Shane Legg, medeoprichter van Google DeepMind, introduceert de 'laptopregel' om te bepalen of AI je baan kan vervangen ↗
Shane Legg opperde een onomwonden vuistregel: als een taak volledig via een laptop kan worden uitgevoerd (scherm, toetsenbord, microfoon, camera, enz.), dan is dat het soort cognitief werk waarbinnen geavanceerde AI steeds vaker kan opereren.
Hij nuanceerde zijn uitspraak enigszins door op te merken dat sommige "volledig online" werkzaamheden nog steeds afhankelijk zijn van menselijk contact en persoonlijkheid. Dus ja, de regel is scherp... maar het is geen guillotine, eerder een waarschuwing voor een naderende storm.