Kort antwoord: AI zal cybersecurity niet volledig vervangen, maar het zal wel een aanzienlijk deel van het repetitieve werk van SOC's en security engineers overnemen. Gebruikt als ruisfilter en samenvatter – met menselijke tussenkomst – versnelt het de triage en prioritering; als het als een orakel wordt beschouwd, kan het echter risicovolle valse zekerheden introduceren.
Belangrijkste conclusies:
Doel : AI vervangt taken en werkprocessen, niet het beroep zelf of de verantwoordelijkheid.
Vermindering van de werkdruk : Gebruik AI voor het clusteren van waarschuwingen, het maken van beknopte samenvattingen en het prioriteren van logpatronen.
Beslissingsverantwoordelijkheid : Behoud menselijke tussenkomst voor risicobereidheid, incidentbeheer en moeilijke afwegingen.
Bestand tegen misbruik : Ontworpen voor snelle injectie, vergiftiging en pogingen tot ontwijking door de tegenstander.
Governance : Handhaaf datagrenzen, controleerbaarheid en de mogelijkheid tot handmatige aanpassingen door gebruikers in de tools.

Artikelen die u wellicht interessant vindt om na dit artikel te lezen:
🔗 Hoe generatieve AI wordt gebruikt in cyberbeveiliging
Praktische manieren waarop AI de detectie, respons en preventie van bedreigingen versterkt.
🔗 AI-pentesttools voor cyberbeveiliging
Toonaangevende AI-oplossingen voor het automatiseren van testen en het opsporen van kwetsbaarheden.
🔗 Is AI gevaarlijk? Risico's en realiteit
Een helder overzicht van bedreigingen, mythes en verantwoorde AI-beveiligingsmaatregelen.
🔗 Gids voor de beste AI-beveiligingstools
De beste beveiligingstools die AI gebruiken om systemen en gegevens te beschermen.
De "vervang"-framing is de valkuil 😅
Als mensen zeggen: "Kan AI cybersecurity vervangen?" , bedoelen ze meestal een van de volgende drie dingen:
-
Analisten vervangen (geen mensen nodig)
-
Vervang tools (één AI-platform doet alles)
-
Resultaten vervangen (minder inbreuken, minder risico)
AI is het sterkst in het vervangen van repetitief werk en het verkorten van de besluitvormingstijd. Het is het zwakst in het vervangen van verantwoordelijkheid, context en oordeelsvermogen. Beveiliging is niet alleen detectie, maar ook een complexe afweging tussen complexe factoren, zakelijke beperkingen, politiek (bah!) en menselijk gedrag.
Je weet hoe het gaat - het lek was niet "een gebrek aan waarschuwingen". Het was een gebrek aan iemand die geloofde dat die waarschuwingen ertoe deden. 🙃
Waar AI in de praktijk al cybersecuritywerkzaamheden “vervangt” ⚙️
AI neemt nu al bepaalde werkcategorieën over, ook al ziet de organisatiestructuur er nog steeds hetzelfde uit.
1) Triage en clustering van waarschuwingen
-
Het groeperen van vergelijkbare meldingen in één incident
-
Ruisende signalen ontdubbelen
-
Rangschikking op basis van de verwachte impact
Dit is belangrijk omdat mensen tijdens de triage hun levenslust verliezen. Als AI het lawaai ook maar een klein beetje dempt, is het alsof je een brandalarm zachter zet dat al wekenlang loeit 🔥🔕
2) Loganalyse en detectie van afwijkingen
-
Verdachte patronen opsporen met machinesnelheid
-
Markeren met "dit is ongebruikelijk in vergelijking met de basislijn"
Het is niet perfect, maar het kan waardevol zijn. AI is als een metaaldetector op het strand: het piept veel, en soms is het een flesdop, maar soms is het een ring 💍… of een gecompromitteerd beheerderstoken.
3) Classificatie van malware en phishing
-
Het classificeren van bijlagen, URL's en domeinen
-
Het opsporen van namaakmerken en vervalsingspatronen
-
Het automatiseren van de samenvattingen van de sandbox-uitspraken
4) Prioritering van kwetsbaarheidsbeheer
Niet "welke CVE's er zijn" - we weten allemaal dat het er veel te veel zijn. AI helpt bij het beantwoorden van deze vraag:
-
Die hier waarschijnlijk te exploiteren zijn. EPSS (EERST)
-
Die extern blootgesteld zijn
-
Welke kaart verwijst naar waardevolle activa? CISA KEV-catalogus
-
Welke moet als eerste worden gepatcht zonder de organisatie in brand te steken? NIST SP 800-40 Rev. 4 (Enterprise Patch Management)
En ja, mensen zouden dat ook kunnen – als de tijd oneindig was en niemand ooit vakantie nam.
Wat maakt een goede versie van AI in de cybersecurity? 🧠
Dit is het gedeelte dat mensen overslaan, en vervolgens geven ze "AI" de schuld alsof het een op zichzelf staand product met gevoelens is.
Een goede versie van AI in de cybersecurity heeft doorgaans de volgende eigenschappen:
-
Hoge signaal-ruisverhouding discipline
-
Het moet de ruis verminderen, niet extra ruis creëren met mooie formuleringen.
-
-
Verklaarbaarheid die helpt in de praktijk
-
Geen roman. Geen sfeerbeschrijving. Echte aanwijzingen: wat het zag, waarom het erom geeft, wat er veranderde.
-
-
Nauwe integratie met uw omgeving
-
IAM, endpointtelemetrie, cloudbeveiliging, ticketing, assetinventarisatie... de minder aantrekkelijke zaken.
-
-
Ingebouwde menselijke override
-
Analisten moeten het corrigeren, bijstellen en soms negeren. Net als een junior analist die nooit slaapt, maar af en toe in paniek raakt.
-
-
Veilige gegevensverwerking
-
Duidelijke grenzen stellen aan wat er wordt opgeslagen, getraind of bewaard. NIST AI RMF 1.0
-
-
Weerstand tegen manipulatie
-
Aanvallers zullen proberen om via snelle injectie, vergiftiging en misleiding aan te vallen. Dat doen ze altijd. OWASP LLM01: Snelle injectie, Britse AI-cyberbeveiligingscode.
-
Laten we eerlijk zijn: veel zogenaamde "AI-beveiliging" faalt omdat de AI is getraind om zelfverzekerd over te komen, niet om correct te zijn. Zelfvertrouwen is geen controlemechanisme. 😵💫
De onderdelen die AI moeilijk kan vervangen - en dat is belangrijker dan het klinkt 🧩
Dit is de ongemakkelijke waarheid: cyberbeveiliging is niet alleen technisch. Het is sociaal-technisch. Het gaat om mensen, systemen en prikkels.
AI heeft moeite met:
1) Bedrijfscontext en risicobereidheid
Beveiligingsbeslissingen gaan zelden over de vraag "is het slecht?". Ze zijn eerder zoiets als:
-
Of het ernstig genoeg is om de inkomsten te stoppen
-
Of het de moeite waard is om de implementatiepipeline te onderbreken
-
Of het managementteam de downtime hiervoor zal accepteren
AI kan helpen, maar kan het niet in eigen handen nemen. Iemand zet zijn of haar handtekening onder de beslissing. Iemand krijgt het telefoontje om 2 uur 's nachts 📞
2) Incidentmanagement en coördinatie tussen teams
Tijdens daadwerkelijke incidenten bestaat het "werk" uit:
-
De juiste mensen in de kamer krijgen
-
Op basis van feiten, zonder paniek
-
Communicatie, bewijsmateriaal, juridische aspecten en klantberichten beheren volgens NIST SP 800-61 (Incident Handling Guide).
AI kan zeker een tijdlijn opstellen of logboeken samenvatten. Maar onder druk een leidinggevende vervangen is… optimistisch. Het is alsof je een rekenmachine vraagt om een brandoefening uit te voeren.
3) Dreigingsmodellering en -architectuur
Dreigingsmodellering is deels logica, deels creativiteit en deels paranoia (vooral gezonde paranoia).
-
Een opsomming van wat er mis zou kunnen gaan
-
Anticiperen op wat een aanvaller zou doen
-
Het kiezen van de goedkoopste controle die de berekeningen van de aanvaller verandert
AI kan patronen suggereren, maar de echte waarde schuilt in het kennen van je systemen, je mensen, je snelkoppelingen en je specifieke, verouderde afhankelijkheden.
4) Menselijke factoren en cultuur
Phishing, hergebruik van inloggegevens, schaduw-IT, slordige toegangscontroles - dit zijn menselijke problemen in een technisch jasje 🎭
AI kan ze detecteren, maar kan niet oplossen waarom de organisatie zich zo gedraagt.
Aanvallers gebruiken ook AI, dus het speelveld kantelt een beetje 😈🤖
Bij elke discussie over het vervangen van cyberbeveiliging moet het overduidelijke feit worden meegenomen: aanvallers zitten niet stil.
AI helpt aanvallers:
-
Schrijf overtuigendere phishingberichten (minder grammaticale fouten, meer context) FBI-waarschuwing over phishing met behulp van AI IC3-voorlichting over generatieve AI-fraude/phishing
-
Genereer sneller polymorfe malwarevarianten met OpenAI-dreigingsinformatie (voorbeelden van kwaadaardig gebruik).
-
Automatiseer verkenning en sociale manipulatie Europol “ChatGPT-rapport” (overzicht van misbruik)
-
Pogingen opschalen is goedkoop
Het is dus niet langer optioneel voor verdedigers om AI in te zetten. Het is meer alsof je een zaklamp meeneemt omdat de tegenstander net een nachtzichtbril heeft gekocht. Een wat onhandige metafoor, maar wel een beetje waar.
Aanvallers zullen zich ook richten op de AI-systemen zelf:
-
Snelle injectie in beveiligingscopiloten OWASP LLM01: Snelle injectie
-
Datavergiftiging om modellen te vertekenen: Britse gedragscode voor cyberbeveiliging van AI
-
Vijandige voorbeelden om detectie te ontwijken MITRE ATLAS
-
tot modelextractie in sommige configuraties MITRE ATLAS
Beveiliging is altijd al een kat-en-muisspel geweest. AI maakt de katten alleen maar sneller en de muizen inventiever 🐭
Het echte antwoord: AI vervangt taken, niet verantwoordelijkheid ✅
Dit is het "lastige midden" waar de meeste teams in terechtkomen:
-
AI kan schaalvergroting
-
Mensen beheren de belangen.
-
Samen beheersen ze snelheid en oordeelsvermogen.
Uit mijn eigen tests met verschillende beveiligingsworkflows blijkt dat AI het beste werkt als het als volgt wordt behandeld:
-
Een triage-assistent
-
Een samenvatter
-
Een correlatie-engine
-
Een beleidsmedewerker
-
Een code-reviewpartner voor risicovolle patronen
AI is het ergst wanneer het als volgt wordt behandeld:
-
Een orakel
-
Een enkel waarheidspunt
-
Een verdedigingssysteem dat je instelt en vervolgens vergeet
-
Een reden om het team onderbezet te houden (dit gaat later nog wel eens flink tegenzitten…)
Het is alsof je een waakhond inhuurt die ook nog eens e-mails schrijft. Geweldig. Maar soms blaft hij naar de stofzuiger en mist hij de man die over de schutting klimt. 🐶🧹
Vergelijkingstabel (meest gebruikte opties door teams in de dagelijkse praktijk) 📊
Hieronder vindt u een praktische vergelijkingstabel - niet perfect, een beetje onevenwichtig, net als in het echte leven.
| Hulpmiddel / Platform | Het meest geschikt voor (doelgroep) | Prijsgevoel | Waarom het werkt (en de eigenaardigheden) |
|---|---|---|---|
| Microsoft Sentinel Microsoft Learn | SOC-teams die actief zijn in Microsoft-ecosystemen | $$ - $$$ | Sterke cloud-native SIEM-patronen; veel connectoren, kan ruis veroorzaken als ze niet goed zijn afgesteld.. |
| Splunk Splunk Enterprise Security | Grotere organisaties met veel logboekregistratie en specifieke behoeften | $$$ (vaak $$$$ eerlijk gezegd) | Krachtige zoekfunctie + dashboards; fantastisch als de gegevens goed gecureerd zijn, pijnlijk als niemand verantwoordelijkheid neemt voor de datakwaliteit |
| Google Beveiligingsactiviteiten Google Cloud | Teams die telemetrie op beheerde schaal willen | $$ - $$$ | Geschikt voor big data op grote schaal; hangt, zoals zo vaak het geval is, af van de volwassenheid van de integratie |
| CrowdStrike Falcon CrowdStrike | Organisaties met veel endpoints, IR-teams | $$$ | Sterk inzicht in de eindpunten; grote detectiediepte, maar je hebt nog steeds mensen nodig om de respons te sturen |
| Microsoft Defender voor Endpoint Microsoft Learn | M365-zware organisaties | $$ - $$$ | Nauwe integratie met Microsoft; kan geweldig zijn, maar kan leiden tot "700 meldingen in de wachtrij" als het verkeerd geconfigureerd is |
| Palo Alto Cortex XSOAR Palo Alto Networks | SOC's gericht op automatisering | $$$ | Handleidingen verminderen de inspanning; ze vereisen zorgvuldigheid, anders automatiseer je wanorde (ja, dat bestaat echt) |
| Wiz Wiz Platform | Cloudbeveiligingsteams | $$$ | Sterk inzicht in de cloud; helpt bij het snel prioriteren van risico's, maar vereist nog steeds goed bestuur |
| Snyk Snyk Platform | Organisaties die ontwikkelaars centraal stellen, AppSec | $$ - $$$ | Ontwikkelaarsvriendelijke workflows; succes hangt af van de acceptatie door ontwikkelaars, niet alleen van het scannen |
Een kleine kanttekening: geen enkel hulpmiddel wint in zijn eentje. Het beste hulpmiddel is degene die je team dagelijks gebruikt zonder er een hekel aan te hebben. Dat is geen wetenschap, dat is overleven 😅
Een realistisch werkmodel: hoe teams winnen met AI 🤝
Als je wilt dat AI de beveiliging daadwerkelijk verbetert, is de gebruikelijke aanpak:
Stap 1: Gebruik AI om de werkdruk te verlagen
-
Samenvattingen van verrijking van waarschuwingen
-
Ticket opstellen
-
Checklists voor bewijsverzameling
-
Log query suggesties
-
"Wat is er veranderd?"-verschillen in configuraties
Stap 2: Gebruik mensen om te valideren en te beslissen
-
Bevestig de impact en de reikwijdte
-
Kies beheersmaatregelen
-
Coördineer oplossingen tussen teams
Stap 3: Automatiseer de kluisfuncties
Goede doelen voor automatisering:
-
Bestanden waarvan bekend is dat ze problemen veroorzaken, met grote zekerheid in quarantaine plaatsen
-
Inloggegevens opnieuw instellen na geverifieerde inbreuk
-
Het blokkeren van overduidelijk kwaadaardige domeinen
-
Het afdwingen van correctie van beleidsafwijkingen (zorgvuldig)
Risicovolle automatiseringsdoelen:
-
Productieservers automatisch isoleren zonder beveiligingsmaatregelen
-
Bronnen verwijderen op basis van onzekere signalen
-
Grote IP-bereiken blokkeren omdat "het model daar zin in had" 😬
Stap 4: Voer de geleerde lessen terug in de besturingselementen
-
Afstemming na het incident
-
Verbeterde detecties
-
Een betere inventarisatie van activa (de eeuwige pijn)
-
Beperkte privileges
Hier komt AI goed van pas: het samenvatten van analyses achteraf, het in kaart brengen van hiaten in de detectie en het omzetten van wanorde in herhaalbare verbeteringen.
De verborgen risico's van AI-gestuurde beveiliging (ja, die zijn er wel degelijk) ⚠️
Als je AI op grote schaal gaat inzetten, moet je rekening houden met mogelijke valkuilen:
-
Verzonnen zekerheid
-
Beveiligingsteams hebben bewijs nodig, geen verhalen. AI houdt van verhalen. NIST AI RMF 1.0
-
-
Datalekken
-
Vragen kunnen per ongeluk gevoelige gegevens bevatten. Logboeken zitten vol geheimen als je goed kijkt. OWASP Top 10 voor LLM-aanvragen
-
-
Overmatige afhankelijkheid
-
Mensen stoppen met het leren van de basisprincipes omdat de copiloot "altijd alles weet"... totdat dat niet meer zo is.
-
-
Modelafwijking
-
Omgevingen veranderen. Aanvalspatronen veranderen. Detectiemethoden verouderen stilletjes. NIST AI RMF 1.0
-
-
Vijandige mishandeling
-
Aanvallers zullen proberen AI-gebaseerde workflows te sturen, te verwarren of te misbruiken. Richtlijnen voor de ontwikkeling van veilige AI-systemen (NSA/CISA/NCSC-UK)
-
Het is alsof je een heel slim slot bouwt en de sleutel vervolgens onder de mat laat liggen. Het slot is niet het enige probleem.
Dus… Kan AI cybersecurity vervangen? Een helder antwoord 🧼
Kan AI cybersecurity vervangen?
Het kan veel van het repetitieve werk binnen cybersecurity vervangen. Het kan de detectie, triage, analyse en zelfs delen van de respons versnellen. Maar het kan de discipline niet volledig vervangen, omdat cybersecurity geen op zichzelf staande taak is - het omvat governance, architectuur, menselijk gedrag, incidentmanagement en continue aanpassing.
Als je de meest openhartige (misschien wat botte) kadrering wilt:
-
AI vervangt routinewerk
-
AI versterkt goede teams
-
AI legt gebrekkige processen
-
De mens blijft verantwoordelijk voor risico's en de realiteit.
En ja, sommige rollen zullen veranderen. Taken op instapniveau zullen het snelst veranderen. Maar er komen ook nieuwe taken bij: prompt-safe workflows, modelvalidatie, engineering van beveiligingsautomatisering, detectie-engineering met AI-ondersteunde tools… het werk verdwijnt niet, het muteert 🧬
Afsluitende opmerkingen en een korte samenvatting 🧾✨
Als je nog niet weet wat je met AI in de beveiliging wilt doen, is dit de belangrijkste praktische conclusie:
-
Gebruik AI om tijd te besparen : snellere triage, snellere samenvattingen, snellere correlatie.
-
Behoud menselijke factoren voor beoordeling - context, afwegingen, leiderschap, verantwoording.
-
Ga ervan uit dat aanvallers ook AI gebruiken - ontwerp voor misleiding en manipulatie. MITRE ATLAS- richtlijnen voor de ontwikkeling van veilige AI-systemen (NSA/CISA/NCSC-UK)
-
Koop geen 'magie', maar werkprocessen die aantoonbaar risico's en de werkdruk verlagen.
Ja, AI kan dus delen van het werk overnemen, en vaak gebeurt dat op manieren die in eerste instantie subtiel lijken. De beste strategie is om AI als hefboom te gebruiken, niet als vervanging.
En als je je zorgen maakt over je carrière, focus je dan op de onderdelen waar AI moeite mee heeft: systeemdenken, incidentmanagement, architectuur en degene zijn die het verschil kan zien tussen een "interessante melding" en "we staan op het punt een hele slechte dag te hebben". 😄🔐
Veelgestelde vragen
Kan AI cybersecurityteams volledig vervangen?
AI kan grote delen van het cybersecuritywerk overnemen, maar niet de discipline van begin tot eind. Het blinkt uit in repetitieve taken zoals het clusteren van waarschuwingen, het detecteren van afwijkingen en het opstellen van eerste samenvattingen. Wat het echter niet vervangt, is verantwoordelijkheid, zakelijke context en oordeelsvermogen wanneer er veel op het spel staat. In de praktijk belanden teams in een "lastig midden" waarbij AI schaalbaarheid en snelheid biedt, terwijl mensen de verantwoordelijkheid behouden voor belangrijke beslissingen.
Op welke gebieden vervangt AI al het dagelijkse werk van een SOC?
In veel SOC's neemt AI al tijdrovende taken over, zoals het prioriteren, verwijderen van duplicaten en rangschikken van meldingen op basis van de verwachte impact. Het kan ook de loganalyse versnellen door patronen te signaleren die afwijken van het normale gedrag. Het resultaat is niet dat er op magische wijze minder incidenten zijn, maar dat analisten minder tijd kwijt zijn aan het doorzoeken van ruis, zodat ze zich kunnen concentreren op onderzoeken die er echt toe doen.
Hoe helpen AI-tools bij het beheren van kwetsbaarheden en het prioriteren van patches?
AI helpt bij de verschuiving van kwetsbaarheidsbeheer van "te veel CVE's" naar "wat moeten we hier als eerste patchen?". Een veelgebruikte aanpak combineert signalen die de waarschijnlijkheid van een exploit aangeven (zoals EPSS), lijsten met bekende exploits (zoals de KEV-catalogus van CISA) en de context van uw omgeving (internetblootstelling en de kritieke aard van uw assets). Goed uitgevoerd, vermindert dit giswerk en maakt het mogelijk om patches door te voeren zonder de bedrijfsvoering te verstoren.
Wat maakt een "goede" AI in cyberbeveiliging anders dan een "lawaaierige" AI?
Goede AI in cybersecurity vermindert ruis in plaats van zelfverzekerd klinkende onzin te produceren. Het biedt praktische uitleg – concrete aanwijzingen zoals wat er is veranderd, wat het heeft waargenomen en waarom het belangrijk is – in plaats van lange, vage verhalen. Het integreert ook met kernsystemen (IAM, endpointbeheer, cloud, ticketing) en ondersteunt menselijke tussenkomst, zodat analisten het indien nodig kunnen corrigeren, bijstellen of negeren.
Welke onderdelen van cyberbeveiliging kan AI moeilijk vervangen?
AI heeft vooral moeite met de sociaal-technische aspecten: risicobereidheid, incidentmanagement en coördinatie tussen teams. Tijdens incidenten draait het werk vaak om communicatie, bewijsmateriaalbeheer, juridische kwesties en besluitvorming in onzekere omstandigheden – gebieden waar leiderschap belangrijker is dan patroonherkenning. AI kan helpen bij het samenvatten van logboeken of het opstellen van tijdlijnen, maar het kan de verantwoordelijkheid onder druk niet betrouwbaar vervangen.
Hoe zetten aanvallers AI in, en verandert dat de taak van de verdediger?
Aanvallers gebruiken AI om phishing op te schalen, overtuigendere social engineering te creëren en sneller malwarevarianten te ontwikkelen. Dat verandert het speelveld: de inzet van AI door verdedigers wordt na verloop van tijd steeds minder een optie. Het brengt ook nieuwe risico's met zich mee, omdat aanvallers AI-workflows kunnen aanvallen via promptinjectie, pogingen tot vergiftiging of ontwijking van aanvallen. Dit betekent dat AI-systemen ook beveiligingsmaatregelen nodig hebben, en niet blindelings vertrouwd mogen worden.
Wat zijn de grootste risico's van het vertrouwen op AI voor beveiligingsbeslissingen?
Een groot risico is gecreëerde zekerheid: AI kan zelfverzekerd overkomen, zelfs als het fout zit, en zelfvertrouwen is geen controlemechanisme. Datalekken vormen een andere veelvoorkomende valkuil: beveiligingswaarschuwingen kunnen onbedoeld gevoelige gegevens bevatten en logbestanden bevatten vaak geheimen. Overmatige afhankelijkheid kan ook de basisprincipes ondermijnen, terwijl modelafwijkingen de detectie ongemerkt verslechteren naarmate de omgeving en het gedrag van aanvallers veranderen.
Wat is een realistisch werkmodel voor het gebruik van AI in cyberbeveiliging?
Een praktisch model ziet er als volgt uit: gebruik AI om handmatig werk te verminderen, behoud mensen voor validatie en besluitvorming, en automatiseer alleen de veilige taken. AI is sterk in het samenstellen van samenvattingen, het opstellen van tickets, het controleren van bewijsmateriaal en het vergelijken van wijzigingen. Automatisering is het meest geschikt voor acties met een hoge mate van zekerheid, zoals het blokkeren van bekende schadelijke domeinen of het resetten van inloggegevens na een geverifieerde inbreuk, met waarborgen om overschrijding te voorkomen.
Zal AI instapfuncties in de cybersecurity vervangen, en welke vaardigheden zullen waardevoller worden?
De taken op instapniveau zullen waarschijnlijk het snelst veranderen, omdat AI repetitief werk zoals triage, samenvatting en classificatie kan overnemen. Maar er ontstaan ook nieuwe taken, zoals het bouwen van workflows die prompts veilig maken, het valideren van modeluitvoer en het ontwikkelen van beveiligingsautomatisering. Carrièrebestendigheid komt vaak voort uit vaardigheden waar AI moeite mee heeft: systeemdenken, architectuur, incidentmanagement en het vertalen van technische signalen naar zakelijke beslissingen.
Referenties
-
FIRST - EPSS (FIRST) - first.org
-
Cybersecurity and Infrastructure Security Agency (CISA) - Catalogus van bekende misbruikte kwetsbaarheden - cisa.gov
-
National Institute of Standards and Technology (NIST) - SP 800-40 Rev. 4 (Enterprise Patch Management) - csrc.nist.gov
-
Nationaal Instituut voor Standaarden en Technologie (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
OWASP - LLM01: Prompt Injection - genai.owasp.org
-
Britse overheid - Gedragscode voor de cyberbeveiliging van AI - gov.uk
-
National Institute of Standards and Technology (NIST) - SP 800-61 (Incident Handling Guide) - csrc.nist.gov
-
Federal Bureau of Investigation (FBI) - FBI waarschuwt voor toenemende dreiging van cybercriminelen die gebruikmaken van kunstmatige intelligentie - fbi.gov
-
FBI Internet Crime Complaint Center (IC3) - IC3-voorlichting over fraude/phishing met generatieve AI - ic3.gov
-
OpenAI - OpenAI-dreigingsrapporten (voorbeelden van kwaadwillig gebruik) - openai.com
-
Europol - Europol “ChatGPT-rapport” (overzicht van misbruik) - europol.europa.eu
-
MITRE - MITRE ATLAS - mitre.org
-
OWASP - OWASP Top 10 voor LLM-aanvragen - owasp.org
-
Nationale Veiligheidsdienst (NSA) - Richtlijnen voor het beveiligen van de ontwikkeling van AI-systemen (NSA/CISA/NCSC-UK en partners) - nsa.gov
-
Microsoft Learn - Overzicht van Microsoft Sentinel - learn.microsoft.com
-
Splunk - Splunk Enterprise Security - splunk.com
-
Google Cloud - Google Security Operations - cloud.google.com
-
CrowdStrike - CrowdStrike Falcon-platform - crowdstrike.com
-
Microsoft Learn - Microsoft Defender voor Endpoint - learn.microsoft.com
-
Palo Alto Networks - Cortex XSOAR - paloaltonetworks.com
-
Wiz - Wiz Platform - wiz.io
-
Snyk - Snyk-platform - snyk.io