🧹 GPT-4o, GPT-4.1, GPT-4.1 mini en OpenAI o4-mini in ChatGPT buiten gebruik stellen ↗
OpenAI zegt dat het binnenkort een aantal oudere modellen uit ChatGPT zal verwijderen, waaronder GPT-4o, GPT-4.1, GPT-4.1 mini en o4-mini, maar dat de API-toegang voorlopig ongewijzigd blijft. Het is eigenlijk een grote schoonmaak... alleen is de bezem gericht op een paar populaire modellen.
Het ietwat pikante gedeelte is dat ze toegeven dat GPT-40 een bepaalde "feel" had die mensen prettig vonden, maar dat het gebruik ervan sterk is verschoven naar nieuwere opties. Dus ja, het is de klassieke "we horen jullie, maar we doen het toch"-mentaliteit - eerlijk, of gewoon efficiënt.
💰 Amazon voert gesprekken over een investering van maar liefst 50 miljard dollar in OpenAI, aldus een bron ↗
Amazon voert naar verluidt vroege gesprekken over een investering van maximaal 50 miljard dollar in OpenAI. Dat bedrag is zo enorm dat het bijna betekenisloos wordt – net zoals wanneer je gamescore in wetenschappelijke notatie wordt weergegeven.
Hetzelfde rapport meldt dat OpenAI een enorme kapitaalverhoging nastreeft, met andere grote investeerders die ook interesse tonen. En ja, Amazon heeft al een aanzienlijk belang in Anthropic, dus dit lijkt op strategisch risicobeheer... of een poging om de touwtjes stevig in handen te nemen, afhankelijk van hoe dramatisch je het wilt interpreteren.
🪖 Pentagon botst met Anthropic over militair gebruik van AI, aldus bronnen ↗
Anthropic en het Pentagon zouden het oneens zijn over wat wel en niet is toegestaan, met name over beperkingen die zaken als autonome wapensystemen of binnenlandse surveillance zouden moeten uitsluiten. Het standpunt van het Pentagon lijkt meer te zijn: "als het legaal is, mag het gebruikt worden", terwijl Anthropic probeert de beleidsmatige impact in de discussie te behouden.
Het is gekoppeld aan contractonderhandelingen ter waarde van maximaal 200 miljoen dollar, wat de spanning extra voelbaar maakt. Dit is een van die momenten waarop "AI-ethiek" ophoudt een paneldiscussie te zijn en verandert in papierwerk, budgetposten en ongemakkelijke vergaderingen.
🔎 Perplexity sluit een AI-clouddeal ter waarde van 750 miljoen dollar met Microsoft, meldt Bloomberg News ↗
Perplexity heeft naar verluidt een meerjarige overeenkomst ter waarde van 750 miljoen dollar getekend voor het gebruik van Microsoft Azure, waarbij Microsoft Foundry de belangrijkste hub wordt voor het verkrijgen en uitvoeren van modellen - inclusief systemen van verschillende bekende labs. Het is een serieuze schaalvergroting die Perplexity verder in de ban van Microsoft trekt (wat comfortabel is... totdat het dat niet meer is).
Opvallend is dat ze ook zeggen dat AWS hun voorkeursleverancier voor infrastructuur blijft, dus het is geen schone breuk – eerder alsof ze een tweede huissleutel hebben bijgekocht “voor het geval dat”. Bovendien speelt er op de achtergrond juridische wrijving met Amazon, waardoor de hele driehoeksverhouding in de cloud een beetje vervloekt aanvoelt.
📉 Beleggers straffen de investeringen van grote technologiebedrijven in AI die tot een tragere groei leiden ↗
De stemming op Wall Street: geef gerust absurde bedragen uit aan AI, maar alleen als de groei snel en duidelijk is. Het contrast was groot: Microsoft kreeg een flinke klap te verwerken nadat de resultaten de zorgen over de groei van de cloud niet wegnamen, terwijl Meta juist een flinke sprong maakte door signalen dat de door AI aangedreven advertentiemachine vruchten afwerpt.
Het is niet zo dat investeerders ineens een hekel hebben aan investeringen in AI... ze hebben gewoon een hekel aan investeringen die neerkomen op "vertrouw ons maar". Wat op zich terecht is, ook al voelt het daardoor alsof productroadmaps worden beoordeeld door een zeer ongeduldige accountant.
🕵️ Voormalig Google-ingenieur veroordeeld voor het stelen van AI-geheimen voor Chinese bedrijven ↗
Linwei Ding, een voormalig Google-ingenieur, is in de VS veroordeeld voor het stelen van bedrijfsgeheimen met betrekking tot kunstmatige intelligentie. Volgens de aanklagers was het materiaal bedoeld om twee Chinese bedrijven waarvoor hij werkte te bevoordelen. De beschuldigingen draaien om vertrouwelijke documenten die verband houden met de infrastructuur die wordt gebruikt om grote AI-modellen te trainen – de onopvallende maar uiterst belangrijke kern van de hele operatie.
De zaak maakt deel uit van een bredere Amerikaanse campagne om gevoelige technologieoverdrachten aan banden te leggen, en het is een herinnering dat "AI-competitie" niet alleen draait om benchmarks en productdemonstraties, maar ook om aanklachten wegens spionage en zeer onaangename juridische gevolgen.
Veelgestelde vragen
Wat betekent het besluit van OpenAI om GPT-4o uit ChatGPT te verwijderen, en welke modellen worden er precies uit gehaald?
OpenAI heeft aangekondigd dat het binnenkort een aantal oudere modellen uit de modelkiezer van ChatGPT zal verwijderen, waaronder GPT-4o, GPT-4.1, GPT-4.1 mini en o4-mini. Dit heeft gevolgen voor de selectiemogelijkheden binnen ChatGPT, maar niet per se voor de beschikbaarheid elders. OpenAI omschrijft deze stap als een "grote schoonmaak", ingegeven door een verschuiving in het gebruik naar nieuwere opties. Als uw werk afhankelijk is van het gedrag van een specifiek model, kunt u enkele aanpassingen in uw workflow verwachten en dient u hier rekening mee te houden.
Zal de API-toegang tot GPT-4o of GPT-4.1 veranderen nadat ze uit ChatGPT worden verwijderd?
Op basis van wat hier staat, blijft de API-toegang voorlopig ongewijzigd, zelfs nu die modellen uit ChatGPT worden verwijderd. Met andere woorden, een app of integratie kan gewoon blijven werken terwijl de modelkiezer van ChatGPT verandert. In veel pipelines is het veiliger om aankondigingen over de beschikbaarheid van modellen te volgen en er niet van uit te gaan dat ChatGPT en het API-aanbod perfect op elkaar aansluiten. Als consistentie belangrijk is, zorg dan voor alternatieven.
Waarom heeft OpenAI besloten om GPT-4o uit te faseren, ondanks dat gebruikers de "aanvoeling" ervan prettig vonden?
OpenAI erkent expliciet dat GPT-4o een bepaalde "aanpak" had die sommige mensen prettiger vonden, maar zegt dat het gebruik sterk is verschoven naar nieuwere modellen. In de praktijk beperken producten vaak de standaardinstellingen om verwarring, ondersteuningskosten en fragmentatie te verminderen. Dat betekent niet dat de voorkeur onterecht is, maar alleen dat het niet de meest gebruikte methode was. Als je de aanpak prettig vond, zul je waarschijnlijk nieuwere opties moeten uitproberen totdat er een is die op dezelfde manier bij je workflow past.
Wat zou een gerapporteerde investering van Amazon van maximaal 50 miljard dollar in OpenAI betekenen voor de concurrentie op het gebied van kunstmatige intelligentie?
Amazon voert naar verluidt gesprekken in een vroeg stadium om tot wel 50 miljard dollar te investeren in OpenAI, naast een bredere, grootschalige financieringsronde. Als dit doorgaat, zou het een belangrijke strategische zet kunnen betekenen – vooral omdat Amazon al een aanzienlijk belang heeft in Anthropic. Afhankelijk van de voorwaarden zou het de samenwerking, de infrastructuurkeuzes en de concurrentiedynamiek tussen de grootste AI-laboratoria en cloudproviders kunnen beïnvloeden. Omdat de gesprekken zich nog in een vroeg stadium bevinden, is er nog niets definitief.
Waarom ruziën het Pentagon en Anthropic over de beveiligingsmaatregelen voor militaire AI?
Volgens berichten botsen het Amerikaanse ministerie van Defensie en Anthropic over beperkingen die toepassingen zoals autonome wapensystemen en binnenlandse surveillance zouden blokkeren. Het Pentagon zou de houding aannemen van "als het legaal is, mag het gebruikt worden", terwijl Anthropic vanaf het begin strengere beleidsbeperkingen wil laten opnemen. Aangezien de contractonderhandelingen een waarde hebben van maximaal 200 miljoen dollar, verschuift het conflict van ethiek naar contracttaal. Daar blijken de waarborgen stand te houden – of verdwijnen ze stilletjes.
Wat verandert de Azure-deal van Perplexity ter waarde van $750 miljoen, en waarom blijft het bedrijf AWS ook behouden?
Perplexity heeft naar verluidt een meerjarige cloudovereenkomst ter waarde van $750 miljoen getekend, voornamelijk gericht op Azure, met Microsoft Foundry als belangrijkste hub voor het ontwikkelen en uitvoeren van modellen. Tegelijkertijd blijft Amazon Web Services naar verluidt de voorkeursleverancier voor infrastructuur, wat wijst op een multi-cloudstrategie in plaats van een volledige overstap. Veelvoorkomende drijfveren hiervoor zijn veerkracht, onderhandelingskracht en flexibiliteit in capaciteit. De juridische spanningen met Amazon op de achtergrond geven extra context aan deze gesplitste aanpak.
Waarom straffen investeerders de investeringen van grote technologiebedrijven in AI af, terwijl AI juist prioriteit heeft?
Het beschreven thema is eenvoudig: investeerders tolereren enorme AI-uitgaven wanneer de groei duidelijk en snel aantoonbaar is, maar ze hebben een hekel aan beloftes die beginnen met "vertrouw ons maar". In het gegeven voorbeeld daalde de koers van Microsoft toen de resultaten de zorgen over de groei van de cloud niet wegnamen, terwijl Meta juist steeg door signalen dat AI de advertentieprestaties verbetert. De conclusie is dat de markt bewijs wil zien: omzetstijging, efficiëntiewinst of een duidelijker pad naar rendement. Uitgaven alleen zijn niet doorslaggevend; aantoonbare rendementen wel.
Wat is er precies gebeurd in de zaak rond de bedrijfsgeheimen van de voormalige Google-ingenieur, en wat kunnen bedrijven hiervan leren?
Google-ingenieur Linwei Ding is in een Amerikaanse rechtbank veroordeeld voor het stelen van bedrijfsgeheimen met betrekking tot kunstmatige intelligentie. Volgens de aanklagers waren de documenten bedoeld om twee Chinese bedrijven waarmee hij samenwerkte te bevoordelen. De documenten zouden betrekking hebben op de trainingsinfrastructuur voor grote AI-modellen – cruciale technologie die achter de schermen wordt gebruikt. De zaak past in een bredere Amerikaanse campagne om de overdracht van gevoelige technologie aan banden te leggen. Voor teams betekent dit strengere toegangscontroles, betere monitoring en een gedisciplineerd ontslagproces.