AI-nieuws, 1 februari 2026

Overzicht van AI-nieuws: 1 februari 2026

Indonesië staat de hervatting van Elon Musks Grok toe na een verbod vanwege seksueel getinte afbeeldingen

Indonesië heeft de schorsing van xAI's Grok opgeheven na een verbod dat verband hield met door AI gegenereerde seksueel getinte content. Ambtenaren hebben aangegeven dat de app onder strenger toezicht kan terugkeren.

De belangrijkste conclusie is de druk om aan de regelgeving te voldoen: platformen kunnen snel terugkeren, maar alleen als ze zich committeren aan strengere beveiligingsmaatregelen. Het komt er eigenlijk op neer: "Welkom terug, maar laat ons dit niet nog een keer doen", wat... terecht is.

💰 Oracle zegt dat het van plan is om dit jaar tot 50 miljard dollar aan schulden en aandelenkapitaal op te halen

Oracle zegt een flink bedrag te willen ophalen om de cloudcapaciteit uit te breiden en koppelt deze inspanning expliciet aan de door AI gedreven vraag.

Dat is het stille patroon nu: de vraag naar AI leidt tot investeringen, investeringen leiden tot schulden, en iedereen doet alsof dit volkomen normaal is. Dat is het ook... en niet helemaal.

🍜 'Volksvader' Jensen Huang dringt er bij Nvidia-leveranciers op aan om Taiwan te bezoeken, dat overspoeld wordt door een menigte

Jensen Huang greep een veelbesproken reis naar Taiwan aan om leveranciers te prijzen en hen aan te sporen de productie op te voeren, omdat de vraag naar AI nog steeds enorm groot is.

Het is half een tournee met beroemdheden, half een onderhandeling over de toeleveringsketen, een zin die eigenlijk geen zin zou moeten hebben, maar dat nu op de een of andere manier wel heeft.

🧾 Volgens Huang van Nvidia was de opmerking over een "investering van 100 miljard dollar in OpenAI" geen toezegging

De CEO van Nvidia probeerde de verwachtingen rond een enorme investering in OpenAI te temperen door te zeggen dat het geen toezegging was, maar eerder iets dat pas geëvalueerd zou worden als het concreet werd.

Het klinkt misschien als saai zakelijk jargon, maar het is belangrijk omdat "interesse" steeds weer wordt verward met "een voldongen feit". Verrassend makkelijk als het om zulke grote bedragen gaat.

🧠 Waarom wetenschappers zo hard hun best doen om bewustzijn te definiëren

Een groep onderzoekers stelt dat we geen degelijke, algemeen aanvaarde tests voor bewustzijn hebben, en dat dit hiaat een probleem wordt naarmate AI-systemen en neurotechnologie geavanceerder worden.

Het ongemakkelijke is hoe praktisch het wordt: zonder gedeelde definities is het moeilijker om ethische grenzen te stellen, beleid te formuleren of zelfs overeen te komen wat als schade telt. Het is alsof je verkeersregels probeert op te stellen voordat je hebt bepaald wat een "weg" is... het komt aardig in de buurt, maar het is niet geruststellend.

Veelgestelde vragen

Waarom heeft Indonesië het verbod op Grok opgeheven na de kwestie met de seksueel getinte afbeeldingen?

De autoriteiten hebben de schorsing opgeheven nadat het verbod in verband werd gebracht met door AI gegenereerde seksueel getinte content, en ze gaven aan dat de dienst onder strenger toezicht zou kunnen terugkeren. De boodschap komt neer op een voorwaardelijke herplaatsing. Platforms kunnen snel terugkeren, maar alleen als ze zich committeren aan strengere beveiligingsmaatregelen. Het is een reset om aan de regelgeving te voldoen, geen schone lei.

Welke waarborgen verwachten toezichthouders doorgaans nadat een AI-platform is geschorst vanwege seksueel getinte inhoud?

Doorgaans willen toezichthouders duidelijker contentbeleid, strengere filtering en snellere verwijderingsprocedures voor risicovolle content. Een veelgebruikte aanpak omvat verbeterde gebruikersrapportage, proactievere monitoring en gedocumenteerde escalatieprocedures. Ze verwachten vaak ook transparantie over wat er is veranderd en hoe herhaling zal worden voorkomen. In veel gevallen betekent "toezicht" continue controles, geen eenmalige oplossing.

Waarom haalt Oracle tot wel 50 miljard dollar op, en wat zegt dat over de vraag naar AI?

Oracle zegt dat het van plan is een aanzienlijk bedrag aan vreemd en eigen vermogen aan te trekken om de cloudcapaciteit uit te breiden, en koppelt deze inspanning expliciet aan de door AI gedreven vraag. Dat past in een bekend patroon: de vraag naar AI leidt tot hoge investeringen, en investeringen leiden vaak tot financiering. Dat kan rationeel zijn als het gebruik blijft groeien, maar het verhoogt ook de risico's als de vraag afneemt.

Wat zegt het feit dat Nvidia leveranciers in Taiwan onder druk zet ons over de vraag naar AI en de beperkingen in het aanbod?

Jensen Huang greep een zeer openbaar bezoek aan om leveranciers te prijzen en hen tegelijkertijd aan te sporen de productie op te voeren, omdat de vraag naar AI nog steeds de capaciteit beperkt. Die combinatie van goede wil en druk is een signaal voor de toeleveringsketen. Het suggereert dat er nog steeds knelpunten bestaan, zelfs wanneer iedereen de groei viert. In de praktijk wordt de doorvoer van leveranciers een strategisch knelpunt.

Had OpenAI werkelijk een investeringstoezegging van 100 miljard dollar van Nvidia?

Nee, de CEO van Nvidia zei dat de geruchten over een "investering van 100 miljard dollar in OpenAI" geen toezegging inhielden. Het werd meer gepresenteerd als iets dat geëvalueerd zou worden als het concreet zou worden. Dat onderscheid is belangrijk, omdat publieke "interesse" verkeerd geïnterpreteerd kan worden als een voldongen feit. Bij zulke grote bedragen kan zelfs ongefundeerde speculatie de verwachtingen vertekenen.

Waarom haasten wetenschappers zich om bewustzijn te definiëren, en waarom is dat belangrijk voor AI en neurotechnologie?

Onderzoekers stellen dat we nog steeds geen solide, breed geaccepteerde tests voor bewustzijn hebben, en dat dit hiaat steeds urgenter wordt naarmate AI-systemen en neurotechnologie geavanceerder worden. Zonder gedeelde definities is het moeilijker om ethische grenzen te stellen, beleid te formuleren of zelfs overeenstemming te bereiken over wat als schadelijk wordt beschouwd. Het praktische risico is dat we krachtige systemen reguleren zonder een stabiel doelconcept.

AI-nieuws van gisteren: 31 januari 2026

Vind de nieuwste AI in de officiële AI Assistant Store

Over ons

Terug naar de blog