🏫 In sommige scholen ondervragen chatbots leerlingen over hun werk. Maar de AI-revolutie baart docenten zorgen ↗
Sommige Australische scholen experimenteren met een scherpere variant op het traditionele 'laat je berekeningen zien'-principe: leerlingen ronden een opdracht af, waarna een AI-chatbot hen via een heen-en-weer-gesprek ondervraagt om te controleren of ze begrijpen wat ze hebben ingediend. Het is in feite een mondeling examen, maar dan met een machine die vraagt: "Wat bedoel je daar precies mee?", net zo lang tot je je ongemakkelijk begint te voelen.
De grootste zorg is de ongelijke uitrol: een brancherapport waarschuwt dat snelle gebruikers een voorsprong kunnen nemen, terwijl anderen achterblijven, waardoor er een onderwijssysteem met twee snelheden ontstaat. Docenten blijven ook de bekende – en nog steeds serieuze – zorgen uiten: privacy, welzijn en hoe te voorkomen dat "AI-hulp" overgaat in "AI heeft het gedaan".
👮 De Metropolitan Police gebruikt AI-tools van Palantir om wangedrag van agenten te signaleren ↗
De Londense politie (Met) gebruikt AI van Palantir om interne personeelspatronen te analyseren – ziekteverzuim, afwezigheid, overuren – op zoek naar signalen die mogelijk verband houden met problemen met de professionele normen. Het is opgezet als een pilotproject met een beperkte looptijd en, cruciaal, de Met benadrukt dat mensen nog steeds de uiteindelijke beslissingen nemen… maar dat “nog steeds” wel degelijk veel werk verzet.
De politiebond is er niet blij mee en noemt het "geautomatiseerde verdenking". Ze waarschuwen voor ondoorzichtige systemen die stress en werkdruk verkeerd interpreteren als wangedrag. Het is zo'n moment waarop de technologie er op een presentatie wel mooi uitziet, maar je je voorstelt hoe het in de praktijk aanvoelt en het ineens heel onaangenaam wordt.
🛡️ De Britse privacywaakhond waarschuwt in een gezamenlijke verklaring voor door AI gegenereerde afbeeldingen ↗
De Britse ICO heeft zich samen met andere toezichthouders aangesloten bij een gezamenlijke waarschuwing over door AI gegenereerde afbeeldingen waarop herkenbare personen zonder toestemming te zien zijn. De boodschap is duidelijk: beschouw "het is synthetisch" niet als een magisch excuus. Het is essentieel om vroegtijdig waarborgen in te bouwen en met toezichthouders in gesprek te gaan, in plaats van de klassieke tech-truc toe te passen: eerst lanceren en later je excuses aanbieden.
Ze wijzen ook op de verhoogde risico's voor kinderen, wat logisch is, want als dit spul zich eenmaal verspreidt, is het net alsof je glitter terug in een potje probeert te scheppen. De strekking is dat privacy en waardigheid de modecyclus zouden moeten overleven, of zo lijkt het tenminste.
🪖 De Amerikaanse minister van Defensie Hegseth heeft de CEO van Anthropic ontboden voor een indringend gesprek over het militair gebruik van de Claude, meldt Axios ↗
Reuters meldt dat de Amerikaanse minister van Defensie een ontmoeting zal hebben met de CEO van Anthropic voor een, naar verluidt, meer confronterend gesprek over het militair gebruik van Claude. Het Pentagon wil naar verluidt dat grote AI-aanbieders hun modellen beschikbaar stellen op geheime netwerken met minder beperkingen, en Anthropic verzet zich tegen elke versoepeling van de beveiligingsmaatregelen.
De onderliggende boodschap lijkt op een klassiek dilemma van "snel handelen, maar... met raketten erbij betrokken". Als de partijen het niet eens kunnen worden over de randvoorwaarden, kan de relatie onder druk komen te staan of zelfs breken. Anthropic geeft echter ook aan dat de gesprekken met de overheid constructief blijven, dus de spanning is er nog niet, maar er zijn nog geen berichten die wijzen op een volledige breuk (nog niet).
🧠 ChatGPT - Release Notes ↗
De release-opmerkingen van OpenAI wijzen op een uitgebreider contextvenster voor de "Denk"-modus. Dit betekent dat je het model meer tekst kunt geven en langere gesprekken coherent kunt houden zonder dat het eerdere details verliest. Als je ooit hebt meegemaakt dat een model iets "vergeet" wat je net hebt gezegd (erg frustrerend!), dan is dit precies wat je hiermee wilt bereiken.
Het is een nogal technische upgrade die onopvallend de praktische kant verandert: langere documenten, complexere projecten, uitgebreidere onderzoekssessies. Niet bepaald glamoureus, maar het is het soort aanpassing aan de waterleiding waardoor het hele huis ineens veel ruimer aanvoelt.
Veelgestelde vragen
Wat betekent het als scholen chatbots gebruiken om leerlingen te "ondervragen" over opdrachten?
Op sommige Australische scholen maken leerlingen een opdracht en voeren vervolgens een gesprek met een AI-chatbot die hun redenering toetst. Het werkt als een mondeling examen, waarbij leerlingen worden uitgedaagd om uit te leggen wat ze hebben geschreven en waarom. Het doel is om het begrip te controleren, niet alleen de hoeveelheid tekst. Het kan ook hiaten aan het licht brengen wanneer een leerling belangrijke beweringen niet kan onderbouwen.
Hoe zouden AI-chatbots in scholen een onderwijssysteem met twee snelheden kunnen creëren?
Een brancherapport waarschuwt dat scholen die snel nieuwe technologieën implementeren een voorsprong kunnen nemen, terwijl scholen die langzamer te werk gaan verder achterop raken. Als sommige scholen AI-tools inzetten om het begrip te toetsen, het leerproces te ondersteunen of misbruik te voorkomen, kunnen ze de resultaten sneller verbeteren. Andere scholen beschikken mogelijk niet over het budget, de personeelscapaciteit of een duidelijk beleid om vergelijkbare systemen te implementeren. Deze ongelijke implementatie kan de bestaande kloof in middelen en leerprestaties vergroten.
Hoe proberen docenten te voorkomen dat "AI-hulp" verandert in "AI heeft het gedaan"?
Een veelgebruikte aanpak is om de beoordeling meer te richten op het proces en de uitleg, in plaats van alleen op het eindproduct. Vragen stellen via een chatbot, concepten schrijven, reflecties uitlokken of mondelinge controles uitvoeren, kan het lastiger maken om werk in te leveren dat je niet begrijpt. Docenten kunnen ook duidelijkere grenzen stellen aan acceptabele hulp, zoals brainstormen versus het volledig herschrijven van het werk. De nadruk blijft liggen op het aantonen van begrip, niet op het controleren van elk hulpmiddel.
Welke privacy- en welzijnsvraagstukken komen aan de orde wanneer AI in klaslokalen wordt gebruikt?
Leraren blijven hun bezorgdheid uiten over welke leerlinggegevens worden verzameld, waar ze worden opgeslagen en wie er toegang toe heeft. Er zijn ook zorgen over het welzijn van leerlingen als ze zich voortdurend in de gaten gehouden of onder druk gezet voelen door geautomatiseerde vragen. Kinderen vormen een bijzondere risicogroep, omdat gevoelige informatie zich op onverwachte manieren kan verspreiden of in systemen kan blijven bestaan. Veel scholen streven ernaar om vroegtijdig veiligheidsmaatregelen te treffen in plaats van ze later te moeten implementeren.
Hoe gebruikt de Metropolitan Police de door Palantir geleverde AI om mogelijk wangedrag van agenten te signaleren?
De Londense politie (Met) gebruikt AI van Palantir om patronen binnen het personeelsbestand te analyseren, zoals ziekteverzuim, afwezigheid en overuren. Het doel is om signalen te herkennen die mogelijk verband houden met problemen met de professionele normen. Het wordt omschreven als een proefproject van beperkte duur en de Met benadrukt dat de beoordelingen nog steeds door mensen worden gemaakt. Critici stellen dat de tool kan aanvoelen als "geautomatiseerde verdenking" als stress wordt geïnterpreteerd als wangedrag.
Waarom maken politievakbonden zich zorgen over "geautomatiseerde verdenkingen" als gevolg van AI-toezichtstools?
De politiebond vreest dat ondoorzichtige modellen wangedrag kunnen afleiden uit patronen die onschuldige verklaringen hebben. Pieken in de werkdruk, gezondheidsproblemen en stress kunnen de aanwezigheid of overuren beïnvloeden zonder dat dit duidt op wangedrag. Als de logica van het instrument niet transparant is, wordt het voor agenten moeilijker om signalen aan te vechten of voor managers om eerlijke drempelwaarden vast te stellen. Zelfs met menselijke beslissingen kunnen geautomatiseerde signalen de uitkomst beïnvloeden.
Waar waarschuwt de Britse ICO voor met betrekking tot door AI gegenereerde afbeeldingen van herkenbare personen?
De Britse privacytoezichthouder heeft zich aangesloten bij andere toezichthouders door te waarschuwen dat "synthetisch" niet betekent dat er geen gevolgen zijn. Als een door AI gegenereerde afbeelding een identificeerbaar persoon zonder toestemming afbeeldt, blijven er risico's voor de privacy en de menselijke waardigheid bestaan. Toezichthouders benadrukken het belang van vroegtijdige waarborgen en toezicht, in plaats van direct te publiceren. Ze wijzen ook op de verhoogde risico's voor kinderen, waar de schade snel kan toenemen zodra de inhoud zich verspreidt.
Wat zit er achter de gerapporteerde druk van het Pentagon op Anthropic met betrekking tot het militair gebruik van Claude?
Reuters meldt dat de Amerikaanse minister van Defensie een ontmoeting zal hebben met de CEO van Anthropic voor een strenger gesprek over het militair gebruik van Claude. Het Pentagon wil naar verluidt dat grote AI-aanbieders hun modellen beschikbaar stellen op geheime netwerken met minder beperkingen. Anthropic verzet zich tegen versoepeling van de beveiligingsmaatregelen en wijst op een conflict over de geldende richtlijnen. De relatie lijkt gespannen, hoewel beide partijen aangeven dat de gesprekken constructief blijven.
Wat is er veranderd in de release-opmerkingen van ChatGPT met betrekking tot de contextlengte van de "Denk"-modus?
De release-opmerkingen van OpenAI wijzen op een uitgebreider contextvenster voor de "Denk"-modus, waardoor er meer tekst in één thread past. In de praktijk kan dit helpen bij lange documenten, complexe projecten en onderzoek in meerdere stappen waarbij eerdere details belangrijk zijn. Het is meer een technische verbetering dan een opvallende nieuwe functie. Het belangrijkste voordeel is dat er minder details verloren gaan tijdens langere sessies.