Kort antwoord: AI gaat te ver wanneer het wordt ingezet bij belangrijke beslissingen, surveillance of beïnvloeding zonder duidelijke grenzen, geïnformeerde toestemming en een reëel recht op beroep. Het gaat opnieuw te ver wanneer deepfakes en grootschalige oplichting ervoor zorgen dat vertrouwen aanvoelt als een gok. Als mensen niet kunnen zien dat AI een rol heeft gespeeld, niet begrijpen waarom een beslissing zo is genomen, of zich er niet tegen kunnen verzetten, is het al te ver gegaan.
Belangrijkste conclusies:
Grenzen: Definieer wat het systeem niet kan, vooral wanneer de onzekerheid groot is.
Verantwoordelijkheid: Zorg ervoor dat mensen de uitkomsten kunnen overrulen zonder dat dit nadelige gevolgen heeft of dat ze onder tijdsdruk komen te staan.
Transparantie: Vertel mensen wanneer AI betrokken is en waarom deze tot bepaalde beslissingen is gekomen.
Betwistbaarheid: Zorg voor snelle, werkbare beroepsprocedures en duidelijke manieren om onjuiste gegevens te corrigeren.
Bescherming tegen misbruik: Voeg herkomstverificatie, snelheidslimieten en controles toe om oplichting en misbruik tegen te gaan.
Is AI te ver gegaan?
Het bijzondere is dat de grensoverschrijding niet altijd duidelijk is. Soms is het luidruchtig en opvallend, zoals bij een deepfake-oplichting. ( FTC , FBI ) Andere keren is het stil – een geautomatiseerde beslissing die je leven op een onhandige manier beïnvloedt zonder enige uitleg, en je hebt niet eens door dat je bent 'betrapt'. ( UK ICO , GDPR Art. 22 )
Dus... is AI te ver gegaan? Op sommige gebieden wel. Op andere gebieden is het nog niet ver genoeg gegaan, omdat het wordt gebruikt zonder de onsexy maar essentiële veiligheidsmechanismen die ervoor zorgen dat tools zich gedragen als tools in plaats van roulettewielen met een gebruiksvriendelijke interface. 🎰🙂 ( NIST AI RMF 1.0 , EU AI-wet )
Artikelen die u wellicht interessant vindt om na dit artikel te lezen:
🔗 Waarom AI schadelijk kan zijn voor de samenleving
Belangrijkste maatschappelijke risico's: vooroordelen, banen, privacy en machtsconcentratie.
🔗 Is AI slecht voor het milieu? Verborgen gevolgen
Hoe trainingen, datacenters en energieverbruik de uitstoot verhogen.
🔗 Is AI goed of slecht? Voordelen en nadelen
Een evenwichtig overzicht van voordelen, risico's en afwegingen in de praktijk.
🔗 Waarom AI als slecht wordt beschouwd: de donkere kant
Het boek onderzoekt misbruik, manipulatie, veiligheidsrisico's en ethische vraagstukken.
Wat mensen bedoelen als ze zeggen: "Is AI te ver gegaan?" 😬
De meeste mensen vragen zich niet af of AI 'bewustzijn' heeft of 'de wereld overneemt'. Ze wijzen naar een van deze twee zaken:
-
AI wordt gebruikt waar het niet thuishoort. (Vooral bij beslissingen met grote gevolgen.) ( Bijlage III van de EU-wetgeving inzake AI , artikel 22 van de AVG )
-
AI wordt zonder toestemming gebruikt. (Uw gegevens, uw stem, uw gezicht… verrassing.) ( UK ICO , GDPR Art. 5 )
-
AI wordt steeds beter in het manipuleren van aandacht. (Feeds + personalisatie + automatisering = aandacht vasthouden.) ( OECD AI-principes )
-
AI zorgt ervoor dat de waarheid optioneel lijkt. (Deepfakes, nepbeoordelingen, synthetische "experts.") ( Europese Commissie , FTC , C2PA )
-
AI concentreert de macht. (Een paar systemen bepalen wat iedereen ziet en kan doen.) ( UK CMA )
Dat is de kern van de vraag: "Is AI te ver gegaan?" Het is niet één enkel moment. Het is een opeenstapeling van prikkels, snelle oplossingen en de mentaliteit van "we lossen het later wel op" - wat, laten we eerlijk zijn, vaak neerkomt op "we lossen het op nadat er iemand gewond is geraakt." 😑

De niet zo geheime waarheid: AI is een vermenigvuldiger, geen morele actor 🔧✨
AI wordt niet wakker en besluit niet om schadelijk te zijn. Mensen en organisaties richten zich erop. Maar het vermenigvuldigt alles wat je het voedt:
-
De goede intentie leidt tot een enorm nuttig resultaat (vertaling, toegankelijkheid, samenvatting, herkenning van medische patronen).
-
Slordige intentie leidt tot enorme slordigheid (vooroordelen op grote schaal, automatisering van fouten).
-
Kwade bedoelingen kunnen uitmonden in enorme problemen (fraude, intimidatie, propaganda, identiteitsfraude).
Het is alsof je een peuter een megafoon geeft. Soms zingt de peuter... soms schreeuwt de peuter recht in je ziel. Geen perfecte metafoor - een beetje flauw - maar de boodschap komt wel over 😅📢.
Wat maakt een goede versie van AI in de dagelijkse praktijk? ✅🤝
Een "goede versie" van AI wordt niet gedefinieerd door hoe slim het is. Het wordt gedefinieerd door hoe goed het zich gedraagt onder druk, onzekerheid en verleiding (en mensen zijn erg gevoelig voor goedkope automatisering). ( NIST AI RMF 1.0 , OECD )
Dit zijn de punten waar ik op let wanneer iemand beweert dat zijn of haar gebruik van AI verantwoord is:
1) Duidelijke grenzen
-
Wat mag het systeem doen?
-
Wat is het uitdrukkelijk verboden om te doen?
-
Wat gebeurt er als er onzekerheid is?
2) Echte, niet-schijnbare, menselijke verantwoordelijkheid
Een menselijke "beoordeling" van de resultaten is alleen relevant als:
-
Ze begrijpen wat ze beoordelen, en
-
Ze kunnen die regel overrulen zonder gestraft te worden voor het vertragen van de boel.
3) Verklaarbaarheid op het juiste niveau
Niet iedereen hoeft wiskunde te leren. Mensen hebben wel het volgende nodig:
-
de belangrijkste redenen achter een beslissing,
-
welke gegevens werden gebruikt,
-
Hoe u bezwaar kunt maken, uw gegevens kunt corrigeren of u kunt afmelden. ( UK ICO )
4) Meetbare prestaties - inclusief storingsmodi
Niet alleen "nauwkeurigheid", maar ook:
-
op wie het faalt,
-
hoe vaak het in stilte mislukt,
-
Wat gebeurt er als de wereld verandert? ( NIST AI RMF 1.0 )
5) Privacy en toestemming die niet “verstopt zitten in instellingen”
Als toestemming een soort speurtocht door menu's vereist... dan is het geen toestemming. Het is een achterdeur met extra stappen 😐🧾. ( AVG Art. 5 , UK ICO )
Vergelijkingstabel: praktische manieren om te voorkomen dat AI te ver gaat 🧰📊
Hieronder volgen "topopties" in de zin dat het gangbare richtlijnen of operationele instrumenten zijn die de uitkomsten veranderen (niet alleen de sfeer).
| Gereedschap/optie | Publiek | Prijs | Waarom het werkt |
|---|---|---|---|
| Evaluatie met menselijke tussenkomst ( EU AI-wetgeving ) | Teams die beslissingen met grote gevolgen nemen | ££ (tijdskosten) | Het vertraagt slechte automatisering. Bovendien kunnen mensen soms vreemde uitzonderingen opmerken.. |
| Beroepsprocedure tegen een besluit ( AVG art. 22 ) | Gebruikers die worden beïnvloed door AI-beslissingen | Vrijwel gratis | Voegt rechtszekerheid toe. Mensen kunnen onjuiste gegevens corrigeren - klinkt eenvoudig, omdat het ook eenvoudig is |
| Auditlogboeken + traceerbaarheid ( NIST SP 800-53 ) | Compliance, operationele zaken, beveiliging | £-££ | Hiermee kun je na een mislukking de vraag "Wat is er gebeurd?" beantwoorden, in plaats van je schouders op te halen |
| Modelevaluatie + bias-testen ( NIST AI RMF 1.0 ) | Product- en risicoteams | varieert enorm | Voorspelbare schade wordt vroegtijdig opgespoord. Niet perfect, maar beter dan gokken |
| Red-team testen ( NIST GenAI-profiel ) | Beveiligingspersoneel | £££ | Simuleert misbruik voordat echte aanvallers dat doen. Onaangenaam, maar de moeite waard 😬 |
| Gegevensminimalisatie ( UK ICO ) | Iedereen, eerlijk gezegd | £ | Minder data betekent minder rommel. En dus ook minder datalekken en minder ongemakkelijke gesprekken |
| Signalen voor de herkomst van content ( C2PA ) | Platformen, media, gebruikers | £-££ | Helpt bij het verifiëren van "is dit door een mens gemaakt?" - niet waterdicht, maar vermindert de chaos |
| Snelheidslimieten + toegangscontrole ( OWASP ) | AI-aanbieders + bedrijven | £ | Voorkomt onmiddellijk dat misbruik escaleert. Als een drempel voor kwaadwillenden |
Ja, de tafel is een beetje scheef. Zo gaat dat nu eenmaal. 🙂
AI bij belangrijke beslissingen: wanneer gaat het te ver? 🏥🏦⚖️
Hier wordt het al snel serieus.
AI in de gezondheidszorg , financiën , huisvesting , werkgelegenheid , onderwijs , immigratie , strafrecht – dit zijn systemen waar: ( Bijlage III van de EU-wetgeving inzake AI , FDA )
-
Een fout kan iemand geld, vrijheid, waardigheid of veiligheid kosten
-
En de getroffen persoon heeft vaak beperkte mogelijkheden om zich te verzetten.
Het grootste risico is niet dat AI fouten maakt. Het grootste risico is dat AI-fouten beleid worden . ( NIST AI RMF 1.0 )
Hoe "te ver gaan" er hier uitziet
-
Geautomatiseerde beslissingen zonder uitleg: "De computer zegt nee." ( UK ICO )
-
Risicoscores worden behandeld als feiten in plaats van gissingen.
-
Mensen die de uitkomst niet kunnen beïnvloeden omdat het management snelheid wil.
-
Gegevens die onoverzichtelijk, bevooroordeeld, verouderd of gewoonweg onjuist zijn.
Wat zou niet onderhandelbaar moeten zijn?
-
Recht op beroep (snel, begrijpelijk, geen doolhof). ( AVG artikel 22 , Britse ICO )
-
Recht om te weten dat er AI bij betrokken was. ( Europese Commissie )
-
Menselijke beoordeling voor belangrijke uitkomsten. ( NIST AI RMF 1.0 )
-
Kwaliteitscontrole van data - want slechte input leidt tot slechte output, wat helaas nog steeds een harde waarheid is.
Als je een duidelijke grens wilt trekken, is dit er een:
als een AI-systeem iemands leven wezenlijk kan veranderen, moet het met dezelfde ernst worden behandeld als andere vormen van gezag. Geen "bètatesten" op mensen die zich niet hebben aangemeld. 🚫
Deepfakes, oplichting en de langzame ondergang van "Ik vertrouw mijn ogen" 👀🧨
Dit is het gedeelte waardoor het dagelijks leven… ongrijpbaar aanvoelt.
Wanneer AI het volgende kan genereren:
-
een spraakbericht dat klinkt alsof het een familielid van je is ( FTC , FBI )
-
een video van een publiek figuur die iets "zegt"
-
een stortvloed aan nepbeoordelingen die er authentiek genoeg uitzien, ( FTC )
-
een nep LinkedIn-profiel met een nep-werkgeschiedenis en nep-vrienden…
…het maakt niet alleen oplichting mogelijk. Het verzwakt de sociale cohesie die ervoor zorgt dat vreemden met elkaar kunnen samenwerken. En de maatschappij draait juist op samenwerking tussen vreemden. 😵💫
"Te ver" gaat niet alleen over de nepcontent
Het is de asymmetrie :
-
Het is goedkoop om leugens te verzinnen.
-
Het is duur en tijdrovend om de waarheid te verifiëren.
-
En de meeste mensen zijn druk, moe en aan het scrollen.
Wat (een beetje) helpt
-
Herkomstmarkeringen voor media. ( C2PA )
-
Wrijving voor viraliteit - het vertragen van onmiddellijk massaal delen.
-
Betere identiteitsverificatie waar het ertoe doet (financiën, overheidsdiensten).
-
Basisgewoonten voor individuen om buiten de officiële kanalen te verifiëren (terugbellen, een codewoord gebruiken, bevestigen via een ander kanaal). ( FTC )
Niet bepaald glamoureus. Maar dat geldt ook voor veiligheidsgordels, en daar ben ik persoonlijk nogal aan gehecht. 🚗
Surveillance-uitbreiding: wanneer AI stilletjes alles in een sensor verandert 📷🫥
Deze explodeert niet zoals een deepfake. Hij verspreidt zich gewoon.
Met AI is het eenvoudig om:
-
bewegingspatronen volgen,
-
emoties afleiden uit video (vaak onnauwkeurig, maar wel met vertrouwen), ( Barrett et al., 2019 , EU AI Act )
-
Voorspel "risico" op basis van gedrag... of de sfeer in je buurt.
En zelfs als het onnauwkeurig is, kan het nog steeds schadelijk zijn, omdat het ingrijpen kan rechtvaardigen. Een verkeerde voorspelling kan nog steeds reële gevolgen hebben.
Het ongemakkelijke gedeelte
AI-gestuurde bewaking wordt vaak gepresenteerd in een verhaal over veiligheid:
-
“Het is bedoeld om fraude te voorkomen.”
-
“Het is voor de veiligheid.”
-
“Het gaat om de gebruikerservaring.”
Soms klopt dat. Maar soms is het ook een handig excuus om systemen te bouwen die later heel moeilijk te ontmantelen zijn. Zoals het installeren van een eenrichtingsdeur in je eigen huis, omdat dat op dat moment efficiënt leek. Nogmaals, geen perfecte metafoor - een beetje belachelijk - maar je voelt het wel. 🚪😅
Hoe "goed" er hier uitziet
-
Strikte limieten voor het bewaren en delen van gegevens.
-
Duidelijke afmeldopties.
-
Beperkte toepassingsgevallen.
-
Onafhankelijk toezicht.
-
Gebruik geen "emotiedetectie" voor straf- of selectiedoeleinden. Alstublieft. 🙃 ( EU AI-wetgeving )
Werk, creativiteit en het stille probleem van het verlies van vaardigheden 🧑💻🎨
Dit is waar het debat persoonlijk wordt, omdat het de identiteit raakt.
AI kan mensen productiever maken. Het kan er ook voor zorgen dat mensen zich vervangbaar voelen. Beide kunnen tegelijkertijd, in dezelfde week, het geval zijn. ( OECD , WEF )
Waar het echt nuttig is
-
Het opstellen van standaardteksten zodat mensen zich kunnen concentreren op het nadenken.
-
Codeerhulp voor herhalende patronen.
-
Toegankelijkheidstools (ondertiteling, samenvatting, vertaling).
-
Brainstormen als je vastloopt.
Waar het te ver gaat
-
Het vervangen van functies zonder overgangsplannen.
-
Kunstmatige intelligentie inzetten om de productie te verhogen en tegelijkertijd de lonen gelijk te houden.
-
Creatief werk behandelen als oneindige gratis trainingsdata en er vervolgens je schouders over ophalen. ( Amerikaans auteursrechtbureau , Britse GOV.UK )
-
Het laten verdwijnen van juniorfuncties klinkt efficiënt, totdat je beseft dat je daarmee de ladder hebt verbrand die toekomstige experts nodig hebben om te beklimmen.
Het verlies van vaardigheden is subtiel. Je merkt het niet dagelijks. Tot je op een dag beseft dat niemand in het team zich meer herinnert hoe het werkt zonder de assistent. En als de assistent het dan fout heeft, hebben jullie het allemaal vol zelfvertrouwen fout... wat een regelrechte nachtmerrie is. 😬
Machtconcentratie: wie bepaalt de standaardinstellingen? 🏢⚡
Zelfs als AI "neutraal" is (wat niet het geval is), kan degene die de controle erover heeft, de volgende aspecten beïnvloeden:
-
welke informatie is gemakkelijk toegankelijk?
-
Wat wordt gepromoot of juist vergeten?
-
welke taal is toegestaan,
-
Welk gedrag wordt aangemoedigd?.
En omdat AI-systemen duur kunnen zijn om te bouwen en te beheren, heeft de macht de neiging zich te concentreren. Dat is geen complottheorie. Dat is economie met een technologisch tintje. ( UK CMA )
Het moment waarop het "te ver gaat"
Wanneer de standaardinstellingen onzichtbare wetgeving worden:
-
Je weet niet wat er gefilterd wordt
-
Je kunt de logica niet inspecteren
-
En je kunt er in de praktijk niet zomaar uitstappen zonder je toegang tot werk, de gemeenschap of basisvoorzieningen te verliezen.
Een gezond ecosysteem heeft concurrentie, transparantie en echte keuzevrijheid voor de gebruiker nodig. Anders huur je in feite de realiteit. 😵♂️
Een praktische checklist: hoe je kunt zien of AI te ver gaat in jouw wereld 🧾🔍
Hier is een lijstje met dingen die ik op gevoel controleer (en ja, het is niet perfect):
Als u een individu bent
-
Ik kan herkennen wanneer ik met AI te maken heb. ( Europese Commissie )
-
Dit systeem dwingt me ertoe om te veel informatie te delen.
-
Ik zou het prima vinden om de uitkomst te accepteren als die op een geloofwaardige manier onjuist is.
-
Als ik via dit platform opgelicht zou worden, zou het platform me helpen... of het zou zijn schouders ophalen.
Als u een bedrijf of team bent
-
We gebruiken AI omdat het waardevol is, of omdat het trendy is en het management onrustig is.
-
We weten welke gegevens het systeem verwerkt.
-
Een getroffen gebruiker kan in beroep gaan tegen de uitkomst. ( UK ICO )
-
Mensen hebben de mogelijkheid om het model te overrulen.
-
We hebben incidentresponsplannen voor AI-storingen.
-
We houden afwijkingen, misbruik en ongebruikelijke uitzonderingen in de gaten.
Als je op een aantal van deze vragen 'nee' hebt geantwoord, betekent dat niet dat je slecht bent. Het betekent dat je je in de normale menselijke gemoedstoestand bevindt van 'we hebben het verzonden en gehoopt'. Maar hopen is helaas geen strategie. 😅
Afsluitende opmerkingen 🧠✅
Dus... is AI te ver gegaan?
Het is te ver gegaan wanneer het zonder verantwoording wordt ingezet , vooral bij beslissingen met grote gevolgen, massale beïnvloeding en surveillance. Het is ook te ver gegaan wanneer het vertrouwen ondermijnt – want zodra het vertrouwen is geschaad, wordt alles duurder en, sociaal gezien, vijandiger. ( NIST AI RMF 1.0 , EU AI-wet )
Maar AI is niet per se gedoemd of perfect. Het is een krachtige multiplier. De vraag is of we de vangrails net zo agressief opbouwen als de mogelijkheden die het biedt.
Korte samenvatting:
-
AI is een prima hulpmiddel.
-
Het is gevaarlijk als een niet-verantwoordingsplichtige autoriteit.
-
Als iemand geen bezwaar kan maken, het niet begrijpt of zich niet kan afmelden, dan gaat het te ver. 🚦 ( AVG artikel 22 , Britse ICO )
Veelgestelde vragen
Is AI te ver doorgedrongen in het dagelijks leven?
Op veel plaatsen is AI te ver gegaan, omdat het steeds meer invloed krijgt op beslissingen en interacties zonder duidelijke grenzen of verantwoording. Het probleem is zelden dat AI bestaat; het is eerder dat AI stilletjes wordt geïntegreerd in wervingsprocessen, de gezondheidszorg, klantenservice en online platforms, met weinig toezicht. Wanneer mensen niet kunnen zien dat het AI is, de uitkomsten niet kunnen aanvechten of zich er niet voor kunnen afmelden, voelt het niet langer als een hulpmiddel, maar als een systeem.
Hoe ziet "AI die te ver gaat" eruit bij belangrijke beslissingen?
Het lijkt erop dat AI wordt ingezet in de gezondheidszorg, financiën, huisvesting, werkgelegenheid, onderwijs, immigratie of het strafrecht zonder strenge waarborgen. Het kernprobleem is niet dat modellen fouten maken; het probleem is dat die fouten verankerd raken in beleid en moeilijk aan te vechten zijn. Beslissingen als "de computer zegt nee", met summiere uitleg en zonder zinvolle beroepsmogelijkheden, leiden snel tot grote schade.
Hoe kan ik vaststellen of een geautomatiseerde beslissing mij beïnvloedt, en wat kan ik eraan doen?
Een veelvoorkomend signaal is een plotselinge uitkomst die je niet kunt verklaren: een afwijzing, beperking of een gevoel van een 'risicoscore' zonder duidelijke reden. Veel systemen zouden moeten aangeven wanneer AI een wezenlijke rol heeft gespeeld, en je zou de belangrijkste redenen achter de beslissing en de stappen om ertegen in beroep te gaan moeten kunnen opvragen. Vraag in de praktijk om een menselijke beoordeling, corrigeer eventuele onjuiste gegevens en dring aan op een eenvoudige opt-out-procedure.
Is AI te ver gegaan met betrekking tot privacy, toestemming en datagebruik?
Dat gebeurt vaak wanneer toestemming een soort speurtocht wordt en gegevensverzameling steeds verder wordt uitgebreid "voor het geval dat". De kern van het artikel is dat privacy en toestemming weinig waarde hebben als ze verborgen zitten in instellingen of worden afgedwongen via vage voorwaarden. Een gezondere aanpak is dataminimalisatie: minder verzamelen, minder bewaren en keuzes duidelijk maken, zodat mensen later niet voor verrassingen komen te staan.
Hoe veranderen deepfakes en AI-fraude de betekenis van 'vertrouwen' online?
Ze laten het lijken alsof de waarheid optioneel is door de kosten voor het produceren van overtuigende nepstemmen, -video's, -recensies en -identiteiten te verlagen. De asymmetrie is het probleem: het verzinnen van leugens is goedkoop, terwijl het verifiëren van de waarheid traag en vermoeiend is. Praktische verdedigingsmechanismen zijn onder andere herkomstsignalen voor media, het vertragen van virale verspreiding, strengere identiteitscontroles waar nodig en "verificatie buiten de gebaande paden"-praktijken zoals terugbellen of het gebruik van een gedeeld codewoord.
Wat zijn de meest praktische vangrails om te voorkomen dat AI te ver gaat?
Beveiligingsmaatregelen die de uitkomst beïnvloeden, omvatten onder meer een grondige menselijke beoordeling van belangrijke beslissingen, duidelijke beroepsprocedures en auditlogboeken die antwoord kunnen geven op de vraag "wat is er gebeurd?" na storingen. Modelvalidatie en bias-testen kunnen voorspelbare schade vroegtijdig opsporen, terwijl red-team-testen misbruik simuleren voordat aanvallers dat doen. Snelheidslimieten en toegangscontroles helpen voorkomen dat misbruik zich razendsnel verspreidt, en dataminimalisatie verlaagt het risico over de hele linie.
Wanneer gaat AI-gestuurde surveillance te ver?
Het gaat te ver als alles standaard een sensor wordt: gezichtsherkenning in menigten, het volgen van bewegingspatronen of zelfverzekerde 'emotiedetectie' die wordt gebruikt voor straf of uitsluiting. Zelfs onnauwkeurige systemen kunnen ernstige schade veroorzaken als ze interventies of het weigeren van diensten rechtvaardigen. Goede praktijken omvatten beperkte gebruiksscenario's, strikte bewaartermijnen, zinvolle opt-outmogelijkheden, onafhankelijk toezicht en een resoluut 'nee' tegen onbetrouwbare, op emoties gebaseerde oordelen.
Maakt AI mensen productiever, of zorgt het er juist voor dat vaardigheden in het werk verdwijnen?
Beide beweringen kunnen tegelijkertijd waar zijn, en die spanning is nu juist de kern van de zaak. AI kan helpen bij routinematig schrijven, repetitieve codeerpatronen en toegankelijkheid, waardoor mensen zich kunnen concentreren op complexere denkprocessen. Het gaat echter te ver wanneer het functies vervangt zonder overgangsplannen, lonen drukt, creatief werk behandelt als gratis trainingsdata of juniorfuncties elimineert die bijdragen aan toekomstige expertise. De afname van vaardigheden blijft subtiel totdat teams niet meer kunnen functioneren zonder de assistent.
Referenties
-
Nationaal Instituut voor Standaarden en Technologie (NIST) - AI-risicobeheerraamwerk (AI RMF 1.0) - nist.gov
-
Europese Unie - EU AI-wet (Verordening (EU) 2024/1689) - Officiële Journal (Engels) - europa.eu
-
Europese Commissie - Regelgevingskader voor AI (beleidspagina van de EU-wetgeving inzake AI) - europa.eu
-
EU AI Act Service Desk - Bijlage III (AI-systemen met een hoog risico) - europa.eu
-
Europese Unie - Regels voor betrouwbare kunstmatige intelligentie in de EU (samenvatting van de EU AI-wet) - europa.eu
-
Het Britse Bureau van de Informatiecommissaris (ICO) - Wat is geautomatiseerde individuele besluitvorming en profilering? - ico.org.uk
-
Het Britse Information Commissioner's Office (ICO) - Wat zegt de Britse GDPR over geautomatiseerde besluitvorming en profilering? - ico.org.uk
-
Het Britse Information Commissioner's Office (ICO) - Geautomatiseerde besluitvorming en profilering (richtlijnen) - ico.org.uk
-
Het Britse Information Commissioner's Office (ICO) - Dataminimalisatie (richtlijnen voor de Britse AVG) - ico.org.uk
-
GDPR-info.eu - Artikel 22 AVG - gdpr-info.eu
-
GDPR-info.eu - Artikel 5 AVG - gdpr-info.eu
-
Amerikaanse Federal Trade Commission (FTC) - Oplichters gebruiken AI om hun noodplannen voor gezinnen te verbeteren - ftc.gov
-
Amerikaanse Federal Trade Commission (FTC) - Oplichters gebruiken valse noodgevallen om uw geld te stelen - ftc.gov
-
Federal Trade Commission (FTC) van de VS - Definitieve regelgeving die valse recensies en getuigenissen verbiedt (persbericht) - ftc.gov
-
Federal Bureau of Investigation (FBI) - FBI waarschuwt voor toenemende dreiging van cybercriminelen die gebruikmaken van kunstmatige intelligentie - fbi.gov
-
Organisatie voor Economische Samenwerking en Ontwikkeling (OECD) - OECD AI-principes - oecd.ai
-
OESO - Aanbeveling van de Raad inzake kunstmatige intelligentie (OECD/LEGAL/0449) - oecd.org
-
Europese Commissie - Richtlijnen en gedragscode voor transparante AI-systemen (FAQ's) - europa.eu
-
Coalitie voor Herkomst en Authenticiteit van Inhoud (C2PA) - Specificaties v2.3 - c2pa.org
-
Britse mededingingsautoriteit (CMA) - AI-basismodellen: eerste rapport - gov.uk
-
Amerikaanse Food and Drug Administration (FDA) - Medische apparaten met kunstmatige intelligentie - fda.gov
-
NIST - Beveiligings- en privacycontroles voor informatiesystemen en organisaties (SP 800-53 Rev. 5) - nist.gov
-
NIST - Generative AI Profile (NIST.AI.600-1, ipd) - nist.gov
-
Open Worldwide Application Security Project (OWASP) - Onbeperkt resourcegebruik (Top 10 API-beveiliging, 2023) - owasp.org
-
NIST - Demografische gegevens van leveranciers van gezichtsherkenningstests (FRVT) - nist.gov
-
Barrett et al. (2019) - Artikel (PMC) - nih.gov
-
OESO - AI gebruiken op de werkvloer (PDF) - oecd.org
-
Wereld Economisch Forum (WEF) - Rapport over de toekomst van banen 2025 - Samenvatting - weforum.org
-
Amerikaans auteursrechtbureau - Auteursrecht en kunstmatige intelligentie, deel 3: Rapport over generatieve AI-training (voorpublicatieversie) (PDF) - copyright.gov
-
Britse overheid (GOV.UK) - Auteursrecht en kunstmatige intelligentie (consultatie) - gov.uk