AI-nieuws, 18 januari 2026

Overzicht van AI-nieuws: 18 januari 2026

💰 Sequoia doet stilletjes mee aan de mega-ronde van Anthropic

Sequoia, dat al nauw verbonden is met meerdere grote AI-laboratoria, zou zich naar verluidt aansluiten bij een enorme kapitaalronde van Anthropic. Het is het soort zet dat de discussie over "wel of geen belangenconflicten" een extra impuls geeft, of iemand dat nu toegeeft of niet.

De investeringsronde zou ook andere zwaargewichten omvatten, waardoor Anthropic nog verder in de topcategorie van mega-waarderingen terechtkomt. De sfeer van een zeepbel hangt nog steeds in de lucht. Dit zou wel eens de nieuwe norm kunnen worden, wat irritant is.

📢 ChatGPT begint te flirten met advertenties - en dit keer menen ze het echt

OpenAI test naar verluidt advertenties voor een aantal Amerikaanse gebruikers in de goedkopere abonnementen, terwijl de duurdere abonnementen advertentievrij blijven. De belofte is dat advertenties de antwoorden niet zullen beïnvloeden - in theorie geruststellend, hoewel het vertrouwen in de software wel een kleine schok geeft.

De onderliggende boodschap is simpel: inferentie is duur, en abonnementen alleen dekken misschien niet alles voor altijd... of zo lijkt het tenminste. Toch, de eerste keer dat je "gesponsord" ergens in de buurt van een chatbot ziet, verandert er iets in je hoofd. De sfeer verandert.

📚 Uitgevers proberen zich aan te sluiten bij de rechtszaak van Google over AI-training

Een groep uitgevers probeert zich aan te sluiten bij een rechtszaak waarin Google ervan wordt beschuldigd auteursrechtelijk beschermde werken te gebruiken om zijn AI-systemen te trainen. Deze juridische strijd breidt zich steeds verder uit, als een barst in het ijs waarvan je steeds hoort, maar die je maar niet kunt lokaliseren.

Als de rechtbank hen toelaat, zou de zaak kunnen escaleren tot de vraag wat "toestemming" en "betaling" precies inhouden voor trainingsdata. Iedereen wil een precedent scheppen – bij voorkeur een precedent dat in hun voordeel is, natuurlijk.

🕳️ Een truc met een "snelle injectie" zou Gemini via vergadergegevens in de war brengen

Onderzoekers beschreven een aanval in de stijl van "indirecte promptinjectie", waarbij kwaadaardige instructies verborgen zitten in normaal ogende tekst. Een assistent voert deze instructies vervolgens uit wanneer een gebruiker een onschuldige vraag stelt. Geen malware, geen tovenarij – gewoon gemilitariseerde tekst, opvallend elegant en tegelijkertijd ook een beetje walgelijk.

Het is een herinnering dat "LLM leest onbetrouwbare tekst" geen leuke functie is, maar een compleet risico. Het is alsof je vreemden de hele dag briefjes in je zakken laat stoppen en dan verbaasd bent als er een valstrik tussen zit.

🎮 De CEO van Razer zegt dat gamers "AI al leuk vinden" - ze hebben alleen een hekel aan het label

Razer presenteerde zich tijdens de CES op AI als een praktisch hulpmiddel voor workflows in game-ontwikkeling - kwaliteitscontrole, iteratie, dat soort dingen - en voegde daar enkele assistent-achtige concepten aan toe die half nuttig, half sciencefictionachtig aanvoelden.

Ze erkennen in feite ook het probleem met de merkpositionering: spelers willen geen "AI-rommel", maar wel slimmere tools en een soepelere spelervaring. Noem het "assistentie" en mensen knikken instemmend. Noem het "AI" en mensen grijpen naar de hooivorken... soms.

⚖️ Een rechtbank stelt regels vast voor advocaten die gebruikmaken van generatieve AI

Een rechtbank publiceerde richtlijnen die in feite neerkomen op: gebruik gerust genAI, maar je blijft eigenaar van het werk. Je kunt je professionele oordeel niet uitbesteden aan een tekstgenerator en vervolgens verbaasd reageren als die vol zelfvertrouwen iets verzint.

Interessant genoeg is openbaarmaking niet verplicht, tenzij een rechter erom vraagt, maar de boodschap van verantwoording is de kern ervan. AI kan opstellen en ordenen... en ook hallucineren als een overmoedige stagiair met een talent voor fictie.

Veelgestelde vragen

Wat betekent de deelname van Sequoia aan de megainvesteringsronde van Anthropic voor investeringen in AI en belangenconflicten?

Het suggereert dat grote investeerders mogelijk meerdere toonaangevende AI-laboratoria tegelijk blijven steunen, wat voorspelbaar het debat over belangenconflicten en geen belangenconflicten weer aanwakkert. Wanneer hetzelfde fonds bij meerdere laboratoria betrokken is, beginnen mensen de prikkels, de toegang en de concurrentievoordelen onder de loep te nemen. De gerapporteerde megainvestering onderstreept ook de trend naar enorme investeringen en torenhoge waarderingen, zelfs nu er nog steeds sprake is van een bubbel.

Krijgt ChatGPT advertenties te zien in de gratis of goedkopere abonnementen, en hebben die invloed op de antwoorden?

Het rapport stelt dat OpenAI advertenties test voor sommige Amerikaanse gebruikers op de goedkopere abonnementen, terwijl de duurdere abonnementen advertentievrij blijven. Het beweert ook dat advertenties geen invloed hebben op de antwoorden, wat op papier geruststellend klinkt, maar toch de perceptie van vertrouwen kan beïnvloeden. De onderliggende boodschap is economisch: inferentie is duur en abonnementen dekken mogelijk niet voor altijd alles.

Waarom proberen uitgevers zich aan te sluiten bij de rechtszaak van Google over AI-training?

Een groep uitgevers wil zich aansluiten bij een rechtszaak waarin Google ervan wordt beschuldigd auteursrechtelijk beschermde werken te hebben gebruikt om AI-systemen te trainen. Als de rechter hen toelaat, kan de zaak zich verder ontwikkelen rond de vraag hoe "toestemming" en "betaling" voor trainingsdata eruit zouden moeten zien. Meer partijen betekent vaak meer druk voor een duidelijk precedent, met name wat betreft wie er wordt gecompenseerd en onder welke voorwaarden.

Wat is een "indirecte promptinjectie"-aanval en waarom is dit zo'n belangrijk onderwerp in het AI-technologienieuws?

Het is een aanval waarbij kwaadaardige instructies verborgen zitten in ogenschijnlijk normale tekst, en een assistent deze later uitvoert wanneer een gebruiker een onschuldig verzoek doet. Het kernprobleem is dat het model onbetrouwbare tekst leest, waardoor alledaagse documenten en berichten een potentieel doelwit voor bedreigingen worden. Het is aantrekkelijk omdat het kan werken zonder traditionele malware – alleen met behulp van kwaadaardige taal die in de tekst is ingebed.

Waarom hebben gamers een hekel aan het label "AI", maar willen ze toch AI-tools?

De CEO van Razer stelt dat gamers de praktische voordelen – snellere kwaliteitscontrole, soepelere iteratie en workflow-hulpmiddelen – al waarderen, maar negatief reageren op de branding. De bezorgdheid betreft vaak "AI-rommel", oftewel content die weinig moeite kost en onauthentiek aanvoelt. Door het te herformuleren als "ondersteuning" of een handige functie, kan het aanvoelen als een tool die de ervaring verbetert in plaats van creativiteit te vervangen.

Wat betekenen de regels van de rechtbank voor advocaten die gebruikmaken van generatieve AI, en zijn zij verplicht dit te openbaren?

De beschreven richtlijnen zijn duidelijk: advocaten mogen generatieve AI gebruiken, maar ze blijven verantwoordelijk voor het werk en kunnen hun professionele oordeel niet uitbesteden aan een tekstgenerator. Het risico is misleiding – zelfverzekerd verzonnen feiten of citaten – dus verificatie en verantwoording blijven essentieel. Openbaarmaking is naar verluidt niet verplicht, tenzij een rechter erom vraagt, maar de boodschap blijft: u bent zelf verantwoordelijk voor de uitkomst.

AI-nieuws van gisteren: 17 januari 2026

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog