AIToday Live

S08E44 - Zo implementeer je AI Governance in code

Aigency by Info Support Season 8 Episode 44

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 11:08

Hoe zorg je ervoor dat je AI-agent niet buiten zijn boekje gaat, zoals een nieuwe medewerker zonder functieprofiel? Het probleem is dat agents steeds autonomer worden - ze verwerken facturen, beantwoorden klanten en nemen beslissingen - maar vaak zonder duidelijke grenzen of controle. Microsoft publiceerde een open-source governance toolkit die elke actie van een agent controleert voordat deze uitgevoerd wordt.

De toolkit werkt als een digitale portier die bij elke handeling checkt of dat mag: welke database, welke e-mails, welke bevoegdheden. Bij een klantenservice-agent stel je bijvoorbeeld in dat hij alleen gegevens van de betreffende klant mag zien en maximaal drie follow-up e-mails per case mag sturen. Morgen kun je beginnen met het inventariseren van je huidige agents en hun risico's - welke hebben toegang tot gevoelige data en welke nemen beslissingen met impact.

Onderwerpen

  • Microsoft Agent Governance Toolkit voor veilige inzet van AI-agents
  • OWASP Top 10 risico's voor AI-agents en EU AI Act compliance
  • Agent OS, Agent Mesh en Agent SRE als governance-modules
  • Open source implementatie en platform-onafhankelijke SDK's
  • Praktische stappen voor risico-inventarisatie en governance-implementatie
Links

Genoemde entiteiten: Microsoft - OWASP - EU AI Act - LangChain - CrewAI

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:02,720 --> 00:00:10,160
Leuk dat je weer luistert naar de korte aflevering van AIToday Live, de podcast die praktische AI kennis deelt via toegankelijke verhalen.

2
00:00:10,240 --> 00:00:13,920
Mijn naam is Joop Snijder, Head of AI bij Info Support.

3
00:00:14,719 --> 00:00:22,9591
00:00:02,720 --> 00:00:10,160
Leuk dat je weer luistert naar de korte aflevering van AIToday Live, de podcast die praktische AI kennis deelt via toegankelijke verhalen.

2
00:00:10,240 --> 00:00:13,920
Mijn naam is Joop Snijder, Head of AI bij Info Support.

3
00:00:14,719 --> 00:00:22,959
Stel je dit eens even voor, je huurt een nieuwe medewerker in, iemand die snel werkt, nooit klaagt, maar wel altijd beschikbaar is.

4
00:00:23,199 --> 00:00:28,559
Je geeft deze medewerker geen functieprofiel, geen grenzen, geen toegangsrechten en geen toezicht.

5
00:00:28,559 --> 00:00:31,120
Je zegt alleen ga maar aan de slag.

6
00:00:31,440 --> 00:00:34,399
Dat klinkt toch als een recept voor problemen toch.

7
00:00:34,399 --> 00:00:40,880
En dat is wel precies wat er nu op veel plekken gebeurt met AI-agents.

8
00:00:41,359 --> 00:00:45,679
AI-agents zijn de afgelopen maanden in een stroomversnelling geraakt.

9
00:00:45,679 --> 00:00:49,759
Steeds meer organisaties bouwen agents die zelfstandig taken uitvoeren.

10
00:00:49,759 --> 00:00:54,800
Ze verwerken facturen, beantwoorden klantvragen, analyseren data.

11
00:00:55,439 --> 00:00:57,039
Van alles en nog wat.

12
00:00:57,359 --> 00:01:01,599
En dat gaat verder dan een chatbot die standaard antwoorden geeft.

13
00:01:01,600 --> 00:01:08,640
Dus deze agents nemen beslissingen, voeren acties uit en ze werken mogelijk zelfs wel samen met andere agents.

14
00:01:08,640 --> 00:01:11,439
En dat kan enorme waarde opleveren.

15
00:01:11,439 --> 00:01:16,799
Maar het roept ook een vraag op die lang onbeantwoord bleef.

16
00:01:17,039 --> 00:01:20,879
Namelijk, wie houdt deze agents eigenlijk in de gaten?

17
00:01:20,879 --> 00:01:23,519
Wat mag een agent wel en niet doen.

18
00:01:23,520 --> 00:01:26,079
En wat gebeurt er als het misgaat.

19
00:01:26,319 --> 00:01:28,319
OWASP.

20
00:01:28,320 --> 00:01:41,280
OWASP, de organisatie die bekend staat om haar Top 10-lijsten voor beveiligingsrisico's, publiceerde eind vorig jaar, eind 2025, voor het eerst een Top 10 specifiek voor AI-agents.

21
00:01:41,519 --> 00:01:45,519
En denk aan risico's zoals goal hijacking.

22
00:01:45,519 --> 00:01:49,519
En dat betekent waarbij iemand het doel van je agent kaapt.

23
00:01:49,519 --> 00:01:51,119
Of tool misuse.

24
00:01:51,120 --> 00:01:56,799
Waarbij een agent zijn beschikbare gereedschappen op een onbedoelde manier inzet.

25
00:01:57,280 --> 00:02:05,759
In een eerdere aflevering besprak ik al hoe prompt injection precies dit soort risico's blootlegt bij AI-browsers.

26
00:02:06,000 --> 00:02:12,799
Die kwetsbaarheden gelden minstens zo sterk voor AI-agents die in je bedrijfsprocessen draaien.

27
00:02:12,799 --> 00:02:15,599
En dan hebben we natuurlijk nog de regelgeving.

28
00:02:15,599 --> 00:02:16,960
De EU AI Act.

29
00:02:16,960 --> 00:02:22,400
Die treedt voor hoog-risicosystemen in werking in augustus 2026.

30
00:02:22,400 --> 00:02:27,840
Dus daar is het de klok gewoon tikt dat je hier iets mee moet.

31
00:02:30,239 --> 00:02:40,879
Op twee april publiceerde Microsoft een open-source toolkit die dit gat wil dichten, namelijk de Agent Governance Toolkit.

32
00:02:41,119 --> 00:02:45,520
Ik moet zeggen, toen ik daarin dook, werd ik echt heel erg enthousiast.

33
00:02:45,680 --> 00:02:53,520
Niet omdat het van Microsoft komt, maar omdat er nu eigenlijk iets ligt dat governance en security concreet implementeerbaar maakt.

34
00:02:53,520 --> 00:02:56,800
Juist specifiek voor maatwerk agents.

35
00:02:56,800 --> 00:02:58,639
Dus als je ze zelf bouwt.

36
00:02:58,640 --> 00:03:04,079
En de toolkit bestaat uit zeven pakketten die je los of samen kunt gebruiken.

37
00:03:04,240 --> 00:03:06,879
Ik lig er drie uit die het meest concreet maken.

38
00:03:06,879 --> 00:03:10,719
Wat agent governance in de praktijk betekent.

39
00:03:11,039 --> 00:03:17,680
En het eerste onderdeel is een soort van beleidsmotor en die heet het Agent OS.

40
00:03:17,680 --> 00:03:21,200
Vergelijk dat met de portier van een hotel.

41
00:03:21,200 --> 00:03:27,600
Elke keer als een gast, in dit geval je AI-agent, iets wil doen, checkt de portier of dat mag.

42
00:03:27,600 --> 00:03:35,519
Wil de agent een e-mail versturen, de portier kijkt naar wie, met welke inhoud en of dat dus past binnen de afspraken.

43
00:03:35,519 --> 00:03:45,200
Wil de agent een database raadplegen, de portier controleert welke database, welke gegevens en heeft deze agent daar ook toestemming voor.

44
00:03:45,599 --> 00:03:49,840
Het bijzondere is dat deze controle bij elke actie gebeurt.

45
00:03:49,840 --> 00:03:52,799
Dus niet achteraf, niet steekproefsgewijs.

46
00:03:53,120 --> 00:03:55,679
Maar vooraf elke keer.

47
00:03:55,919 --> 00:04:04,320
En het gaat zo snel, we praten over minder dan een tiende van een milliseconde, dat de agent er zou je kunnen zeggen, niks van merkt.

48
00:04:04,480 --> 00:04:08,000
Het voegt geen vertraging toe.

49
00:04:08,000 --> 00:04:13,199
Voor jou als gebruiker verandert er niks aan de snelheid waarmee de agent opereert.

50
00:04:13,520 --> 00:04:18,800
Maar onder de motorkap wordt elke stap getoetst aan de regels die jij hebt gesteld.

51
00:04:18,800 --> 00:04:22,479
En je definieert die regels in een heel simpel configuratiebestand.

52
00:04:22,639 --> 00:04:29,519
Dat kan zoiets zijn als deze agent mag alleen data lezen uit de klantdatabase, maar mag er niets in wijzigen.

53
00:04:29,759 --> 00:04:34,000
Of deze agent mag maximaal vijf e-mails per uur versturen.

54
00:04:34,000 --> 00:04:40,719
Vergelijk het met de huisregels die je voor een nieuwe medewerker opstelt, maar dan automatisch gehandhaafd.

55
00:04:40,959 --> 00:04:44,160
En het tweede onderdeel, Agent Mesh.

56
00:04:44,160 --> 00:04:49,520
Die lost een probleem op waar je misschien nog niet bij stil hebt gestaan.

57
00:04:50,879 --> 00:04:54,640
Je hebt bijvoorbeeld twee agents die samenwerken.

58
00:04:54,639 --> 00:04:58,319
En de ene verwerkt mogelijk, laten we zeggen, inkooporders.

59
00:04:58,319 --> 00:05:00,600
En de andere keurt betalingen goed.

60
00:05:02,839 --> 00:05:03,079
En die twee wisselen informatie uit.

61
00:05:03,079 --> 00:05:12,279
Maar hoe weet de betalingsagent dat hij praat met de échte inkoopagent en niet met een indringer die zich voordoet als die agent.

62
00:05:12,279 --> 00:05:15,160
In de fysieke wereld lossen we dit op met legitimatie.

63
00:05:15,160 --> 00:05:17,640
Je laat je paspoort of ID-bewijs zien.

64
00:05:17,959 --> 00:05:21,399
Agent Mesh doet hetzelfde voor AI-agents.

65
00:05:21,399 --> 00:05:29,959
Dus elke agent krijgt een digitale identiteit, een soort paspoort waarmee hij zich kan identificeren bij andere agents.

66
00:05:30,279 --> 00:05:33,080
En daar zit ook nog iets heel slims bij.

67
00:05:33,399 --> 00:05:37,079
Ze gebruiken namelijk een zogenaamde vertrouwensscore.

68
00:05:37,079 --> 00:05:44,840
Die score gaat omhoog als een agent zich netjes gedraagt, maar daalt als er vreemd gedrag wordt gesignaleerd.

69
00:05:44,840 --> 00:05:49,160
Net als een kredietwaardigheidscore, maar dan dus voor betrouwbaarheid.

70
00:05:49,159 --> 00:05:50,680
En waarom is dat zo belangrijk?

71
00:05:50,680 --> 00:05:53,959
Nou, omdat agents steeds vaker in ketens gaan samenwerken.

72
00:05:53,959 --> 00:05:59,000
Agent A vraagt iets aan agent B, die op basis daarvan iets doorstuurt naar agent C.

73
00:05:59,240 --> 00:06:05,879
En als één schakel in die keten niet te vertrouwen is, dan heb je een probleem dat zich door de hele keten verspreidt.

74
00:06:06,120 --> 00:06:08,759
Dit identiteitssysteem voorkomt dat.

75
00:06:09,720 --> 00:06:16,040
Het derde onderdeel, het laatste dat ik wil noemen, is de Agent SRE.

76
00:06:16,279 --> 00:06:20,040
En dat staat voor Site Reliability Engineering.

77
00:06:20,039 --> 00:06:24,840
Een term uit de softwarewereld die draait om het betrouwbaar houden van systemen.

78
00:06:24,840 --> 00:06:34,519
En wat deze module doet, is principes die al jaren bewezen zijn bij het draaien van grote websites en apps.

79
00:06:34,519 --> 00:06:37,239
En dat dan juist toepassen op AI-agents.

80
00:06:37,560 --> 00:06:42,120
En één zo'n principe, vond ik echt wel een mooie, is het foutbudget.

81
00:06:42,120 --> 00:06:47,719
Het idee is namelijk heel simpel: je bepaalt vooraf hoeveel fouten acceptabel zijn.

82
00:06:48,040 --> 00:06:55,240
Je zegt bijvoorbeeld, mijn agent mag in 99% van de gevallen het juiste antwoord geven.

83
00:06:55,240 --> 00:06:59,000
Dan heb je dus een foutbudget van 1%.

84
00:06:59,159 --> 00:07:04,040
Zodra je agent die grens bereikt, gaat er automatisch een rem op.
85
00:07:04,039 --> 00:07:08,920
En de agent wordt bijvoorbeeld tijdelijk teruggeschaald of er wordt een mens bijgehaald.
 85
00:07:08,919 --> 00:07:13,879
Het principe wat hiervoor gebruikt wordt, is de zogenaamde circuit breaker.
 86
00:07:13,879 --> 00:07:22,680
Dat werkt zoals de stoppen in je meterkast, als het te veel stroom op een stop gaat, dan slaat de stoppen uit voordat de brand ontstaat.
 87
00:07:22,840 --> 00:07:24,839
Bij AI agents werkt het hetzelfde.
 88
00:07:25,079 --> 00:07:33,399
Als een agent herhaaldelijk fouten maakt of vastloopt, wordt die dus automatisch uitgeschakeld voordat de schade zich verder verspreidt.
 89
00:07:35,159 --> 00:07:37,160
Nu hoor ik je misschien denken.
 90
00:07:37,240 --> 00:07:39,319
Ja, oké, weer een Microsoft ding.
 91
00:07:39,319 --> 00:07:44,360
En moet ik dan overal de Microsoft Cloud Azure voor gebruiken.
 92
00:07:44,600 --> 00:07:46,680
Het korte antwoord is nee.
 93
00:07:46,680 --> 00:07:53,800
Deze toolkit is namelijk volledig open source onder een MIT licentie en werkt onafhankelijk van Microsoft technologie.
 94
00:07:53,799 --> 00:07:56,040
Je kunt het draaien op elk platform.
 95
00:07:57,319 --> 00:07:59,879
Je wordt heel kort technisch.
 96
00:07:59,879 --> 00:08:05,000
Er zijn SDK's voor onder meer Python, TypeScript.
 97
00:08:05,159 --> 00:08:07,320
Rust, je kan ze gek niet verzinnen.
 98
00:08:07,319 --> 00:08:10,759
En integraties met frameworks zoals LangChain en CrewAI.
 99
00:08:10,759 --> 00:08:12,360
Dus je zit nergens aan vast.
 100
00:08:12,360 --> 00:08:15,319
En dat is een bewuste keuze die Microsoft heeft gemaakt.
 101
00:08:15,319 --> 00:08:21,399
Want ze zeggen zelf dat agent governance te belangrijk is om door één partij te worden beheerst.
 102
00:08:21,399 --> 00:08:26,120
Dus ze willen deze toolkit uiteindelijk ook onderbrengen bij een onafhankelijke stichting.
 103
00:08:26,120 --> 00:08:29,159
Dus dat vind ik wel echt heel heel goed nieuws.
 104
00:08:29,159 --> 00:08:32,920
Maar laten we nou ook de brug maken naar misschien jouw organisatie.
 105
00:08:32,920 --> 00:08:36,360
Want het klinkt misschien als iets voor grote techbedrijven.
 106
00:08:36,360 --> 00:08:37,799
Maar dat is het niet.
 107
00:08:37,960 --> 00:08:41,080
Veel organisaties worstelen namelijk met dezelfde vraag.
 108
00:08:41,080 --> 00:08:43,080
Hoe maak ik governance concreet?
 109
00:08:43,079 --> 00:08:46,760
Hoe voorkom ik dat het een papieren tijger wordt.
 110
00:08:46,840 --> 00:08:53,079
In mijn boek Doeltreffend met AI-agents, heb ik daar het onder andere het AI Governance Playbook voor ontwikkeld.
 111
00:08:53,399 --> 00:09:00,840
Dat is een praktisch raamwerk dat je helpt om governance niet als last te behandelen, maar juist als onderdeel van je ontwerpproces.
 112
00:09:00,840 --> 00:09:06,519
En een paar maanden geleden hebben we daarna ook nog de AI-agent vacature Canvas aan toegevoegd.
 113
00:09:06,519 --> 00:09:13,079
En dat is een canvas dat je dwingt om vooraf na te denken over wat je agent moet doen, wat hij mag en niet mag.
 114
00:09:13,079 --> 00:09:16,440
Welke data hij nodig heeft en wie er verantwoordelijk voor is.
 115
00:09:16,440 --> 00:09:25,239
Eigenlijk alles wat je nodig hebt om de antwoorden te formuleren die je vervolgens programmeert in een governance framework als dat van Microsoft.
 116
00:09:25,240 --> 00:09:29,560
En dat is juist de samenhang die ik zo waardevol vind.
 117
00:09:29,799 --> 00:09:33,720
Die toolkit van Microsoft biedt echt de technische handhaving.
 118
00:09:33,720 --> 00:09:39,080
Het Governance Playbook en het vacature Canvas helpen je om te bepalen wat je wil handhaven.
 119
00:09:39,080 --> 00:09:43,639
En de combinatie met de toolkit maakt governance echt werkbaar.
 120
00:09:43,639 --> 00:09:47,280
Van beleidsnotitie tot code, zou je kunnen zeggen.
 121
00:09:44,759 --> 00:09:50,879
Wat moet je hier nu mee als luisteraar.
 122
00:09:51,759 --> 00:09:53,199
Laat ik drie dingen noemen.
 123
00:09:53,200 --> 00:09:59,199
Ten eerste, als je al AI-agents bouwt of dat overweegt kijk dan echt naar deze toolkit.
 124
00:09:59,200 --> 00:10:04,400
Niet om morgen alles in productie te zetten, maar om te begrijpen welke governance lagen je nodig hebt.
 125
00:10:04,399 --> 00:10:09,919
Die OWASP Agentic AI Top 10 is echt een goed startpunt om in ieder geval je risico's in kaart te brengen.
 126
00:10:09,919 --> 00:10:13,760
Ten tweede, start ook met de menselijke kant.
 127
00:10:13,759 --> 00:10:25,200
Voordat je een governance framework implementeert, moet je weten wat je agent wel en niet mag doen, governance begint uiteindelijk bij een gesprek en niet bij de code.
 128
00:10:25,200 --> 00:10:28,480
En derde, wacht niet op augustus.
 129
00:10:28,480 --> 00:10:33,840
De EU AI Act verplicht organisaties hun AI-systemen in kaart te brengen en te classificeren.
 130
00:10:34,080 --> 00:10:35,679
Dat geldt ook voor agents.
 131
00:10:35,679 --> 00:10:41,040
En hoe eerder je mee begint, hoe minder haastwerk je straks hebt.
 132
00:10:41,759 --> 00:10:48,479
Het leuke nieuws is dat de komende afleveringen gaan we vaker in gesprek met gasten over AI governance.
 133
00:10:48,480 --> 00:10:52,559
Het is een onderwerp wat gewoon nu heel erg op de kaart staat.
 134
00:10:52,559 --> 00:10:54,480
Da gaan we nog veel dieper op in.
 135
00:10:54,720 --> 00:10:56,080
Dus mis die niet.
 136
00:10:56,319 --> 00:11:01,920
En bedenk AI is niet de oplossing van elk probleem, maar onmisbaar waar het past.
 
Stel je dit eens even voor, je huurt een nieuwe medewerker in, iemand die snel werkt, nooit klaagt, maar wel altijd beschikbaar is.

4
00:00:23,199 --> 00:00:28,559
Je geeft deze medewerker geen functieprofiel, geen grenzen, geen toegangsrechten en geen toezicht.

5
00:00:28,559 --> 00:00:31,120
Je zegt alleen ga maar aan de slag.

6
00:00:31,440 --> 00:00:34,399
Dat klinkt toch als een recept voor problemen toch.

7
00:00:34,399 --> 00:00:40,880
En dat is wel precies wat er nu op veel plekken gebeurt met AI-agents.

8
00:00:41,359 --> 00:00:45,679
AI-agents zijn de afgelopen maanden in een stroomversnelling geraakt.

9
00:00:45,679 --> 00:00:49,759
Steeds meer organisaties bouwen agents die zelfstandig taken uitvoeren.

10
00:00:49,759 --> 00:00:54,800
Ze verwerken facturen, beantwoorden klantvragen, analyseren data.

11
00:00:55,439 --> 00:00:57,039
Van alles en nog wat.

12
00:00:57,359 --> 00:01:01,599
En dat gaat verder dan een chatbot die standaard antwoorden geeft.

13
00:01:01,600 --> 00:01:08,640
Dus deze agents nemen beslissingen, voeren acties uit en ze werken mogelijk zelfs wel samen met andere agents.

14
00:01:08,640 --> 00:01:11,439
En dat kan enorme waarde opleveren.

15
00:01:11,439 --> 00:01:16,799
Maar het roept ook een vraag op die lang onbeantwoord bleef.

16
00:01:17,039 --> 00:01:20,879
Namelijk, wie houdt deze agents eigenlijk in de gaten?

17
00:01:20,879 --> 00:01:23,519
Wat mag een agent wel en niet doen.

18
00:01:23,520 --> 00:01:26,079
En wat gebeurt er als het misgaat.

19
00:01:26,319 --> 00:01:28,319
OWASP.

20
00:01:28,320 --> 00:01:41,280
OWASP, de organisatie die bekend staat om haar Top 10-lijsten voor beveiligingsrisico's, publiceerde eind vorig jaar, eind 2025, voor het eerst een Top 10 specifiek voor AI-agents.

21
00:01:41,519 --> 00:01:45,519
En denk aan risico's zoals goal hijacking.

22
00:01:45,519 --> 00:01:49,519
En dat betekent waarbij iemand het doel van je agent kaapt.

23
00:01:49,519 --> 00:01:51,119
Of tool misuse.

24
00:01:51,120 --> 00:01:56,799
Waarbij een agent zijn beschikbare gereedschappen op een onbedoelde manier inzet.

25
00:01:57,280 --> 00:02:05,759
In een eerdere aflevering besprak ik al hoe prompt injection precies dit soort risico's blootlegt bij AI-browsers.

26
00:02:06,000 --> 00:02:12,799
Die kwetsbaarheden gelden minstens zo sterk voor AI-agents die in je bedrijfsprocessen draaien.

27
00:02:12,799 --> 00:02:15,599
En dan hebben we natuurlijk nog de regelgeving.

28
00:02:15,599 --> 00:02:16,960
De EU AI Act.

29
00:02:16,960 --> 00:02:22,400
Die treedt voor hoog-risicosystemen in werking in augustus 2026.

30
00:02:22,400 --> 00:02:27,840
Dus daar is het de klok gewoon tikt dat je hier iets mee moet.

31
00:02:30,239 --> 00:02:40,879
Op twee april publiceerde Microsoft een open-source toolkit die dit gat wil dichten, namelijk de Agent Governance Toolkit.

32
00:02:41,119 --> 00:02:45,520
Ik moet zeggen, toen ik daarin dook, werd ik echt heel erg enthousiast.

33
00:02:45,680 --> 00:02:53,520
Niet omdat het van Microsoft komt, maar omdat er nu eigenlijk iets ligt dat governance en security concreet implementeerbaar maakt.

34
00:02:53,520 --> 00:02:56,800
Juist specifiek voor maatwerk agents.

35
00:02:56,800 --> 00:02:58,639
Dus als je ze zelf bouwt.

36
00:02:58,640 --> 00:03:04,079
En de toolkit bestaat uit zeven pakketten die je los of samen kunt gebruiken.

37
00:03:04,240 --> 00:03:06,879
Ik lig er drie uit die het meest concreet maken.

38
00:03:06,879 --> 00:03:10,719
Wat agent governance in de praktijk betekent.

39
00:03:11,039 --> 00:03:17,680
En het eerste onderdeel is een soort van beleidsmotor en die heet het Agent OS.

40
00:03:17,680 --> 00:03:21,200
Vergelijk dat met de portier van een hotel.

41
00:03:21,200 --> 00:03:27,600
Elke keer als een gast, in dit geval je AI-agent, iets wil doen, checkt de portier of dat mag.

42
00:03:27,600 --> 00:03:35,519
Wil de agent een e-mail versturen, de portier kijkt naar wie, met welke inhoud en of dat dus past binnen de afspraken.

43
00:03:35,519 --> 00:03:45,200
Wil de agent een database raadplegen, de portier controleert welke database, welke gegevens en heeft deze agent daar ook toestemming voor.

44
00:03:45,599 --> 00:03:49,840
Het bijzondere is dat deze controle bij elke actie gebeurt.

45
00:03:49,840 --> 00:03:52,799
Dus niet achteraf, niet steekproefsgewijs.

46
00:03:53,120 --> 00:03:55,679
Maar vooraf elke keer.

47
00:03:55,919 --> 00:04:04,320
En het gaat zo snel, we praten over minder dan een tiende van een milliseconde, dat de agent er zou je kunnen zeggen, niks van merkt.

48
00:04:04,480 --> 00:04:08,000
Het voegt geen vertraging toe.

49
00:04:08,000 --> 00:04:13,199
Voor jou als gebruiker verandert er niks aan de snelheid waarmee de agent opereert.

50
00:04:13,520 --> 00:04:18,800
Maar onder de motorkap wordt elke stap getoetst aan de regels die jij hebt gesteld.

51
00:04:18,800 --> 00:04:22,479
En je definieert die regels in een heel simpel configuratiebestand.

52
00:04:22,639 --> 00:04:29,519
Dat kan zoiets zijn als deze agent mag alleen data lezen uit de klantdatabase, maar mag er niets in wijzigen.

53
00:04:29,759 --> 00:04:34,000
Of deze agent mag maximaal vijf e-mails per uur versturen.

54
00:04:34,000 --> 00:04:40,719
Vergelijk het met de huisregels die je voor een nieuwe medewerker opstelt, maar dan automatisch gehandhaafd.

55
00:04:40,959 --> 00:04:44,160
En het tweede onderdeel, Agent Mesh.

56
00:04:44,160 --> 00:04:49,520
Die lost een probleem op waar je misschien nog niet bij stil hebt gestaan.

57
00:04:50,879 --> 00:04:54,640
Je hebt bijvoorbeeld twee agents die samenwerken.

58
00:04:54,639 --> 00:04:58,319
En de ene verwerkt mogelijk, laten we zeggen, inkooporders.

59
00:04:58,319 --> 00:05:00,600
En de andere keurt betalingen goed.

60
00:05:02,839 --> 00:05:03,079
En die twee wisselen informatie uit.

61
00:05:03,079 --> 00:05:12,279
Maar hoe weet de betalingsagent dat hij praat met de échte inkoopagent en niet met een indringer die zich voordoet als die agent.

62
00:05:12,279 --> 00:05:15,160
In de fysieke wereld lossen we dit op met legitimatie.

63
00:05:15,160 --> 00:05:17,640
Je laat je paspoort of ID-bewijs zien.

64
00:05:17,959 --> 00:05:21,399
Agent Mesh doet hetzelfde voor AI-agents.

65
00:05:21,399 --> 00:05:29,959
Dus elke agent krijgt een digitale identiteit, een soort paspoort waarmee hij zich kan identificeren bij andere agents.

66
00:05:30,279 --> 00:05:33,080
En daar zit ook nog iets heel slims bij.

67
00:05:33,399 --> 00:05:37,079
Ze gebruiken namelijk een zogenaamde vertrouwensscore.

68
00:05:37,079 --> 00:05:44,840
Die score gaat omhoog als een agent zich netjes gedraagt, maar daalt als er vreemd gedrag wordt gesignaleerd.

69
00:05:44,840 --> 00:05:49,160
Net als een kredietwaardigheidscore, maar dan dus voor betrouwbaarheid.

70
00:05:49,159 --> 00:05:50,680
En waarom is dat zo belangrijk?

71
00:05:50,680 --> 00:05:53,959
Nou, omdat agents steeds vaker in ketens gaan samenwerken.

72
00:05:53,959 --> 00:05:59,000
Agent A vraagt iets aan agent B, die op basis daarvan iets doorstuurt naar agent C.

73
00:05:59,240 --> 00:06:05,879
En als één schakel in die keten niet te vertrouwen is, dan heb je een probleem dat zich door de hele keten verspreidt.

74
00:06:06,120 --> 00:06:08,759
Dit identiteitssysteem voorkomt dat.

75
00:06:09,720 --> 00:06:16,040
Het derde onderdeel, het laatste dat ik wil noemen, is de Agent SRE.

76
00:06:16,279 --> 00:06:20,040
En dat staat voor Site Reliability Engineering.

77
00:06:20,039 --> 00:06:24,840
Een term uit de softwarewereld die draait om het betrouwbaar houden van systemen.

78
00:06:24,840 --> 00:06:34,519
En wat deze module doet, is principes die al jaren bewezen zijn bij het draaien van grote websites en apps.

79
00:06:34,519 --> 00:06:37,239
En dat dan juist toepassen op AI-agents.

80
00:06:37,560 --> 00:06:42,120
En één zo'n principe, vond ik echt wel een mooie, is het foutbudget.

81
00:06:42,120 --> 00:06:47,719
Het idee is namelijk heel simpel: je bepaalt vooraf hoeveel fouten acceptabel zijn.

82
00:06:48,040 --> 00:06:55,240
Je zegt bijvoorbeeld, mijn agent mag in 99% van de gevallen het juiste antwoord geven.

83
00:06:55,240 --> 00:06:59,000
Dan heb je dus een foutbudget van 1%.

84
00:06:59,159 --> 00:07:04,040
Zodra je agent die grens bereikt, gaat er automatisch een rem op.
85
00:07:04,039 --> 00:07:08,920
En de agent wordt bijvoorbeeld tijdelijk teruggeschaald of er wordt een mens bijgehaald.
 85
00:07:08,919 --> 00:07:13,879
Het principe wat hiervoor gebruikt wordt, is de zogenaamde circuit breaker.
 86
00:07:13,879 --> 00:07:22,680
Dat werkt zoals de stoppen in je meterkast, als het te veel stroom op een stop gaat, dan slaat de stoppen uit voordat de brand ontstaat.
 87
00:07:22,840 --> 00:07:24,839
Bij AI agents werkt het hetzelfde.
 88
00:07:25,079 --> 00:07:33,399
Als een agent herhaaldelijk fouten maakt of vastloopt, wordt die dus automatisch uitgeschakeld voordat de schade zich verder verspreidt.
 89
00:07:35,159 --> 00:07:37,160
Nu hoor ik je misschien denken.
 90
00:07:37,240 --> 00:07:39,319
Ja, oké, weer een Microsoft ding.
 91
00:07:39,319 --> 00:07:44,360
En moet ik dan overal de Microsoft Cloud Azure voor gebruiken.
 92
00:07:44,600 --> 00:07:46,680
Het korte antwoord is nee.
 93
00:07:46,680 --> 00:07:53,800
Deze toolkit is namelijk volledig open source onder een MIT licentie en werkt onafhankelijk van Microsoft technologie.
 94
00:07:53,799 --> 00:07:56,040
Je kunt het draaien op elk platform.
 95
00:07:57,319 --> 00:07:59,879
Je wordt heel kort technisch.
 96
00:07:59,879 --> 00:08:05,000
Er zijn SDK's voor onder meer Python, TypeScript.
 97
00:08:05,159 --> 00:08:07,320
Rust, je kan ze gek niet verzinnen.
 98
00:08:07,319 --> 00:08:10,759
En integraties met frameworks zoals LangChain en CrewAI.
 99
00:08:10,759 --> 00:08:12,360
Dus je zit nergens aan vast.
 100
00:08:12,360 --> 00:08:15,319
En dat is een bewuste keuze die Microsoft heeft gemaakt.
 101
00:08:15,319 --> 00:08:21,399
Want ze zeggen zelf dat agent governance te belangrijk is om door één partij te worden beheerst.
 102
00:08:21,399 --> 00:08:26,120
Dus ze willen deze toolkit uiteindelijk ook onderbrengen bij een onafhankelijke stichting.
 103
00:08:26,120 --> 00:08:29,159
Dus dat vind ik wel echt heel heel goed nieuws.
 104
00:08:29,159 --> 00:08:32,920
Maar laten we nou ook de brug maken naar misschien jouw organisatie.
 105
00:08:32,920 --> 00:08:36,360
Want het klinkt misschien als iets voor grote techbedrijven.
 106
00:08:36,360 --> 00:08:37,799
Maar dat is het niet.
 107
00:08:37,960 --> 00:08:41,080
Veel organisaties worstelen namelijk met dezelfde vraag.
 108
00:08:41,080 --> 00:08:43,080
Hoe maak ik governance concreet?
 109
00:08:43,079 --> 00:08:46,760
Hoe voorkom ik dat het een papieren tijger wordt.
 110
00:08:46,840 --> 00:08:53,079
In mijn boek Doeltreffend met AI-agents, heb ik daar het onder andere het AI Governance Playbook voor ontwikkeld.
 111
00:08:53,399 --> 00:09:00,840
Dat is een praktisch raamwerk dat je helpt om governance niet als last te behandelen, maar juist als onderdeel van je ontwerpproces.
 112
00:09:00,840 --> 00:09:06,519
En een paar maanden geleden hebben we daarna ook nog de AI-agent vacature Canvas aan toegevoegd.
 113
00:09:06,519 --> 00:09:13,079
En dat is een canvas dat je dwingt om vooraf na te denken over wat je agent moet doen, wat hij mag en niet mag.
 114
00:09:13,079 --> 00:09:16,440
Welke data hij nodig heeft en wie er verantwoordelijk voor is.
 115
00:09:16,440 --> 00:09:25,239
Eigenlijk alles wat je nodig hebt om de antwoorden te formuleren die je vervolgens programmeert in een governance framework als dat van Microsoft.
 116
00:09:25,240 --> 00:09:29,560
En dat is juist de samenhang die ik zo waardevol vind.
 117
00:09:29,799 --> 00:09:33,720
Die toolkit van Microsoft biedt echt de technische handhaving.
 118
00:09:33,720 --> 00:09:39,080
Het Governance Playbook en het vacature Canvas helpen je om te bepalen wat je wil handhaven.
 119
00:09:39,080 --> 00:09:43,639
En de combinatie met de toolkit maakt governance echt werkbaar.
 120
00:09:43,639 --> 00:09:47,280
Van beleidsnotitie tot code, zou je kunnen zeggen.
 121
00:09:44,759 --> 00:09:50,879
Wat moet je hier nu mee als luisteraar.
 122
00:09:51,759 --> 00:09:53,199
Laat ik drie dingen noemen.
 123
00:09:53,200 --> 00:09:59,199
Ten eerste, als je al AI-agents bouwt of dat overweegt kijk dan echt naar deze toolkit.
 124
00:09:59,200 --> 00:10:04,400
Niet om morgen alles in productie te zetten, maar om te begrijpen welke governance lagen je nodig hebt.
 125
00:10:04,399 --> 00:10:09,919
Die OWASP Agentic AI Top 10 is echt een goed startpunt om in ieder geval je risico's in kaart te brengen.
 126
00:10:09,919 --> 00:10:13,760
Ten tweede, start ook met de menselijke kant.
 127
00:10:13,759 --> 00:10:25,200
Voordat je een governance framework implementeert, moet je weten wat je agent wel en niet mag doen, governance begint uiteindelijk bij een gesprek en niet bij de code.
 128
00:10:25,200 --> 00:10:28,480
En derde, wacht niet op augustus.
 129
00:10:28,480 --> 00:10:33,840
De EU AI Act verplicht organisaties hun AI-systemen in kaart te brengen en te classificeren.
 130
00:10:34,080 --> 00:10:35,679
Dat geldt ook voor agents.
 131
00:10:35,679 --> 00:10:41,040
En hoe eerder je mee begint, hoe minder haastwerk je straks hebt.
 132
00:10:41,759 --> 00:10:48,479
Het leuke nieuws is dat de komende afleveringen gaan we vaker in gesprek met gasten over AI governance.
 133
00:10:48,480 --> 00:10:52,559
Het is een onderwerp wat gewoon nu heel erg op de kaart staat.
 134
00:10:52,559 --> 00:10:54,480
Da gaan we nog veel dieper op in.
 135
00:10:54,720 --> 00:10:56,080
Dus mis die niet.
 136
00:10:56,319 --> 00:11:01,920
En bedenk AI is niet de oplossing van elk probleem, maar onmisbaar waar het past.