AIToday Live

S07E62 - 6 strategieën voor verantwoorde AI-versnelling

Aigency by Info Support Season 7 Episode 62

In deze aflevering van AIToday Live bespreekt Joop Snijder de uitdagingen van AI governance binnen organisaties. Hij legt uit hoe wendbare AI governance innovatie kan bevorderen zonder de verantwoordelijkheden uit het oog te verliezen. Snijder introduceert zes strategieën om AI governance effectief te integreren in bedrijfsprocessen. Deze aanpak helpt organisaties om sneller te innoveren terwijl ze voldoen aan ethische en wettelijke eisen. Wendbare AI governance blijkt essentieel voor het succesvol implementeren van AI-toepassingen.

Onderwerpen

  • Wendbare AI governance
  • Balans tussen innovatie en verantwoordelijkheid
  • Strategieën voor effectieve AI-governance
  • Multidisciplinaire teams in het ontwikkelproces
  • Risico-gebaseerde aanpak voor AI-toepassingen

Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:01,980 --> 00:00:05,020
Hoi, welkom bij de korte aflevering van AIToday Live.

2
00:00:05,940 --> 00:00:07,780
Mijn naam is Joop Snijder, CTO bij Aigency.

3
00:00:08,240 --> 00:00:13,440
En vandaag ga ik het met jullie hebben over een onderwerp dat in veel organisaties wringt.

4
00:00:14,500 --> 00:00:19,740
Want hoe kun je nou innoveren met AI en tegelijkertijd verantwoordelijk blijven?

5
00:00:20,440 --> 00:00:27,060
Want laten we eerlijk zijn, in veel organisaties voelt AI governance als een rem op innovatie.

6
00:00:27,860 --> 00:00:31,800
Je kent het wel, je team heeft een briljant idee voor een AI toepassing.

7
00:00:32,330 --> 00:00:39,320
Maar dan begint de lange mars langs IT security, compliance, juridische zaken, ethische commissies enzovoort.

8
00:00:40,440 --> 00:00:47,940
En tegen de tijd dat alle stempels zijn verzameld, dan is het momentum verdwenen of de technologie misschien zelfs alweer verouderd.

9
00:00:48,080 --> 00:00:49,780
Je weet het nooit in deze tak van sport.

10
00:00:50,640 --> 00:00:55,180
Aan de andere kant zien we ook waar het misgaat als er geen governance is.

11
00:00:55,720 --> 00:01:03,800
Denk aan privacy schandalen, algoritmische discriminatie of gewoon AI projecten die mislukken omdat ze niet robuust genoeg waren voor de praktijk.

12
00:01:04,760 --> 00:01:07,500
Kortom, ergens is een balans nodig.

13
00:01:08,200 --> 00:01:11,860
En laten we die balans nou eens wendbare AI governance noemen.

14
00:01:12,700 --> 00:01:15,980
Een aanpak die het beste van twee werelden combineert.

15
00:01:16,800 --> 00:01:26,180
Je stimuleert innovatie en snelheid in AI ontwikkeling, terwijl je tegelijkertijd borg staat voor compliance, ethiek en betrouwbaarheid.

16
00:01:26,860 --> 00:01:31,300
Het draait om, laten we het governance by design noemen.

17
00:01:31,480 --> 00:01:37,840
In plaats van governance als een hindernis achteraf te zien, integreer je het direct in het ontwikkelproces.

18
00:01:38,400 --> 00:01:44,840
Vandaag deel ik zes concrete strategieën om wendbare AI governance binnen jouw organisatie mogelijk te maken.

19
00:01:47,420 --> 00:01:49,300
Laten we beginnen bij de eerste.

20
00:01:49,800 --> 00:01:53,980
Werk met AI productielijnen en modulaire kaders.

21
00:01:54,020 --> 00:01:55,160
Ik ga je uitleggen wat dat is.

22
00:01:55,980 --> 00:01:56,940
Want wat bedoel ik daarmee?

23
00:01:57,100 --> 00:02:01,680
In veel organisaties start elk AI project als een volledig nieuw avontuur.

24
00:02:02,320 --> 00:02:04,720
Elke keer opnieuw een business case verdedigen.

25
00:02:04,940 --> 00:02:07,300
Opnieuw bepalen welke data je mag gebruiken.

26
00:02:08,100 --> 00:02:10,240
Opnieuw uitleggen hoe je model werkt.

27
00:02:10,960 --> 00:02:17,180
Maar wat als je in plaats daarvan governance inricht als een modulaire systeem met herbruikbare bouwstenen?

28
00:02:17,580 --> 00:02:22,040
Denk aan een standaard modelkaart die de werking van je algoritme documenteren.

29
00:02:22,700 --> 00:02:26,820
Of aan datasheets die de herkomst en kwaliteit van je data vastleggen.

30
00:02:27,860 --> 00:02:33,420
Of een risicoassessment die al vooraf zijn goedgekeurd voor bepaalde gebruikersituaties.

31
00:02:35,580 --> 00:02:37,240
Laat maar een praktisch voorbeeld geven.

32
00:02:38,160 --> 00:02:43,260
Stel je een grote financiële instelling voor die een zogenaamd AI playbook heeft ontwikkeld.

33
00:02:43,600 --> 00:02:47,860
En in het playbook staan duidelijke kaders voor verschillende soorten AI toepassingen.

34
00:02:48,300 --> 00:02:52,840
Als een team binnen deze kaders blijft, hoeven ze niet meer langs alle commissies.

35
00:02:53,300 --> 00:02:55,840
Ze kunnen simpelweg verwijzen naar het playbook.

36
00:02:56,320 --> 00:02:59,960
Kunnen zeggen, we gebruiken patroon X voor use case I.

37
00:03:00,260 --> 00:03:03,720
En dat staat al in het playbook op pagina Z.

38
00:03:04,420 --> 00:03:09,260
En in zo'n situatie zou dit maanden aan goedkeuringstijd kunnen schelen.

39
00:03:10,140 --> 00:03:14,340
Dus door deze modulaire aanpak hoef je niet elke keer opnieuw het wiel uit te vinden.

40
00:03:15,160 --> 00:03:20,400
Door use cases gelijk aan elkaar te kunnen maken, kan je meer afvinken.

41
00:03:20,400 --> 00:03:21,820
Dat je zegt van ja, maar dit hebben we gedaan.

42
00:03:25,140 --> 00:03:31,340
En een tweede strategie gaat over het verschil tussen een muur en een vangrail.

43
00:03:31,840 --> 00:03:33,560
Een muur houdt alles tegen.

44
00:03:34,380 --> 00:03:36,060
Vangrail, in het Engels ook wel guardrail

45
00:03:36,740 --> 00:03:37,760
Houdt je op de weg

46
00:03:37,980 --> 00:03:40,060
Maar geeft je wel de vrijheid om te rijden

47
00:03:40,640 --> 00:03:42,300
En in plaats van alles dicht te timmeren

48
00:03:42,300 --> 00:03:43,360
Met strikte regels

49
00:03:43,610 --> 00:03:46,300
Kun je werken met duidelijke

50
00:03:46,660 --> 00:03:47,620
Vangrails, guardrails

51
00:03:47,960 --> 00:03:49,720
Richtlijnen die vooral aangeven

52
00:03:49,750 --> 00:03:51,580
Wat wel mag in plaats van

53
00:03:52,100 --> 00:03:52,800
Allemaal verboden

54
00:03:53,900 --> 00:03:55,340
Waarbij het natuurlijk wel duidelijk is

55
00:03:55,340 --> 00:03:56,340
Waar de grens ligt

56
00:03:57,019 --> 00:04:00,380
Dat de vangrail daar ook duidelijk in is

57
00:04:02,959 --> 00:04:03,560
Bijvoorbeeld

58
00:04:03,580 --> 00:04:05,880
Data mogen gebruikt worden voor welke doeleinden.

59
00:04:06,480 --> 00:04:09,900
Je kan vastleggen welke modellen mogen autonoom beslissingen nemen.

60
00:04:10,840 --> 00:04:13,200
En wanneer is menselijke tussenkomst verplicht.

61
00:04:14,200 --> 00:04:18,540
Laten we eens kijken naar een hypothetisch voorbeeld van hoe dit zou kunnen werken.

62
00:04:19,260 --> 00:04:26,880
Stel je een Nederlandse gemeente voor die in plaats van een verbod op AI bij burgerzaken duidelijke guardrails heeft opgesteld.

63
00:04:27,600 --> 00:04:32,420
AI mag worden ingezet voor procesoptimalisatie en voorbereidend werk.

64
00:04:33,280 --> 00:04:39,940
Maar de uiteindelijke beslissing over bijvoorbeeld een uitkering of vergunning moet altijd door een medewerker worden genomen.

65
00:04:40,600 --> 00:04:44,840
Binnen die kaders zouden teams kunnen innoveren zonder dat ze uit de bocht vliegen.

66
00:04:45,300 --> 00:04:50,000
Deze aanpak geeft AI-teams de ruimte om te bewegen terwijl de risico's beheersbaar blijven.

67
00:04:50,420 --> 00:04:56,039
Het verschil tussen nee dat mag niet en ja maar wel binnen deze grenzen klinkt subtiel.

68
00:04:57,020 --> 00:04:59,960
Maar het effect op innovatiesnelheid is enorm.

69
00:05:00,520 --> 00:05:04,920
Zeker samen met zo'n playbook waarin je patronen vastlegt.

70
00:05:05,340 --> 00:05:10,500
Dat als dit ergens op lijkt, hebben we deze voorwaarden voor je.

71
00:05:10,530 --> 00:05:12,240
En als je daaraan voldoet, mag je verder.

72
00:05:14,280 --> 00:05:14,720
Nummertje drie.

73
00:05:15,370 --> 00:05:19,860
De derde strategie gaat over wie er aan tafel zit bij de AI beslissingen.

74
00:05:20,580 --> 00:05:26,880
Traditioneel worden compliance, legal, privacy, IT security vaak pas laat in het proces betrokken.

75
00:05:27,320 --> 00:05:30,180
Als een soort poortwachters die op het einde kunnen blokkeren.

76
00:05:30,820 --> 00:05:33,900
In deze wendbare AI governance draai je het om.

77
00:05:34,240 --> 00:05:40,580
Je betrekt deze disciplines juist al vroeg in het proces en niet als controleurs, maar als adviseurs.

78
00:05:40,980 --> 00:05:49,260
Denk aan een soort van AI board, maakt me niet uit hoe je het noemt, die meedenkt en meebouwt in plaats van achteraf remt.

79
00:05:49,720 --> 00:05:58,360
Je zou kunnen denken aan bijvoorbeeld een verzekeraar met een multidisciplinair AI governance team dat gewoon wekelijk samenkomt.

80
00:05:58,780 --> 00:06:07,620
En in zo'n setup zouden teams hun plannen kunnen voorleggen en direct feedback kunnen vragen van alle relevante disciplines die daar dan aanwezig zijn.

81
00:06:08,300 --> 00:06:14,600
En als er knelpunten zijn, worden die meteen geïdentificeerd en kan het team dat proactief bijsturen.

82
00:06:15,180 --> 00:06:20,720
En zo'n groep zou ook kunnen fungeren als een snelle escalatielijn juist bij hele complexe casussen.

83
00:06:22,040 --> 00:06:28,460
Want wendbare governance betekent ook beslissingen kunnen nemen binnen dagen en niet binnen maanden.

84
00:06:29,350 --> 00:06:34,140
En dat vereist wel dat de juiste mensen mandaat hebben en regelmatig samenkomen.

85
00:06:34,580 --> 00:06:43,820
Zo'n multidisciplinair team brengt verschillende perspectieven samen, zorgt ervoor dat AI-ontwikkeling in lijn blijft met alle organisatiewaarden en vereisten.

86
00:06:44,760 --> 00:06:50,880
Nummer 4. De vierde strategie betreft het inbedden van governance in je technische processen ook.

87
00:06:51,440 --> 00:06:56,620
AI governance moet niet naast de AI ontwikkeling staan, maar die juist in verweven zijn.

88
00:06:57,380 --> 00:07:01,700
En dat is waar ML Ops of grote taalmodellen LLM Ops om de hoek komt kijken.

89
00:07:03,320 --> 00:07:04,560
Want wat betekent dit concreet?

90
00:07:04,560 --> 00:07:10,720
Dat betekent dat je governance aspecten automatiseert en in je ontwikkelingspipeline verankert.

91
00:07:11,780 --> 00:07:14,180
Denk aan automatisch versiebeheer van modellen,

92
00:07:14,480 --> 00:07:17,960
zodat je altijd kan traceren welke versie wanneer is gebruikt.

93
00:07:18,060 --> 00:07:22,380
Of all the trails die vastleggen welke beslissingen een model heeft genomen en waarom.

94
00:07:24,040 --> 00:07:27,680
Of automatische checks voor databescherming en kwaliteit.

95
00:07:30,920 --> 00:07:37,820
Kijk, als voorbeeld kan ik me een technologiebedrijf voorstellen dat een AI governance laag bouwt in een AI platform.

96
00:07:38,530 --> 00:07:43,600
En dan in zo'n scenario zou elke keer dat een model wordt getraind of ingezet,

97
00:07:44,120 --> 00:07:48,180
automatisch de nodige governance check worden uitgevoerd en gedocumenteerd.

98
00:07:49,160 --> 00:07:54,720
En dit zou natuurlijk handmatig werk verminderen en tegelijkertijd de compliance verhogen.

99
00:07:57,260 --> 00:07:59,680
Daardoor maak je je governance schaalbaar,

100
00:08:00,140 --> 00:08:04,200
zelfs als je met tientallen of misschien zelfs wel honderden modellen werkt.

101
00:08:05,000 --> 00:08:06,760
Komen we bij nummertje vijf.

102
00:08:07,420 --> 00:08:13,220
De vijfde strategie herkent dat niet elk AI-initiatief dezelfde mate van controle vereist.

103
00:08:13,440 --> 00:08:24,260
Het trainen van een simpel classificatiemodel op openbare data vraagt om een andere governance dan het ontwikkelen van een algoritme dat bijvoorbeeld bepaalt wie een aanmerking komt voor een hypotheek.

104
00:08:25,220 --> 00:08:29,320
Daarom is het zinvol om een risico gebaseerde aanpak te introduceren.

105
00:08:30,600 --> 00:08:37,140
En die risico's zijn al dan niet gekoppeld aan de classificatie van de AI Act, maar dat laat ik aan jou over.

106
00:08:37,719 --> 00:08:43,159
Maar je deelt in ieder geval de AI toepassing in op basis van je risicoprofiel.

107
00:08:43,840 --> 00:08:48,920
En voor toepassingen met een laag risico volstaat dan een standaard proces met een hele lichte toetsing.

108
00:08:49,840 --> 00:08:53,100
Denk aan een chatbot die algemene vragen beantwoord over openingstijden.

109
00:08:53,860 --> 00:08:59,420
Maar voor toepassingen met middelhoog risico voeg je dan extra reviews toe, bijvoorbeeld op ethiek en bias.

110
00:09:02,160 --> 00:09:08,160
En dan hoog risico toepassingen zoals AI die medische diagnose stelt, kredietwaardigheid beoordeelt.

111
00:09:08,280 --> 00:09:14,580
Daar is dan ook een formele toetsing en expliciete goedkeuring nodig van dat boord wat is opgericht.

112
00:09:15,120 --> 00:09:17,960
Daar komt de hele governance aan bod.

113
00:09:18,620 --> 00:09:24,240
Door deze gedifferentieerde aanpak voorkom je dat kleine, laag risico initiatieven onnodig vertragen.

114
00:09:24,840 --> 00:09:29,660
Terwijl je wel de juiste aandacht besteedt aan initiatieven met grotere impact.

115
00:09:31,460 --> 00:09:33,380
Dan de laatste, nummertje zes.

116
00:09:33,800 --> 00:09:36,900
Want tot slot draait het ook om mindset en cultuur.

117
00:09:38,420 --> 00:09:45,780
Al deze strategieën werken alleen als mensen governance zien als een versneller en kwaliteitsborging en niet als obstakel.

118
00:09:46,520 --> 00:09:49,340
Dat is een cultuurverandering die aandacht zal verdienen.

119
00:09:49,860 --> 00:09:59,520
In organisaties waar dit goed werkt zie je dat governance teams zich opstellen als partners die helpen om AI verantwoord te maken in plaats van als poortwachters die overal nee zeggen.

120
00:10:00,200 --> 00:10:07,820
Ze vragen niet alleen mag dit wel, maar denken mee over hoe kunnen we dit mogelijk maken, maar wel op een verantwoorde manier.

121
00:10:08,720 --> 00:10:14,900
Dit vereist transparantie, vertrouwen en gedeeld eigenaarschap tussen AI-teams en de governance functies.

122
00:10:15,340 --> 00:10:24,220
Het betekent ook investeren in kennis en bewustwording, zodat iedereen begrijpt waarom governance belangrijk is en hoe het juist kan bijdragen aan betere AI-systemen.

123
00:10:25,900 --> 00:10:29,760
Wendbare AI governance is geen toverformule die alle problemen oplost.

124
00:10:30,140 --> 00:10:34,180
Het vereist investering in processen, kennis en cultuur.

125
00:10:34,680 --> 00:10:40,740
Maar de beloning is groot en je kunt sneller innoveren met AI en zorgen dat de innovatie verantwoord gebeurt.

126
00:10:41,420 --> 00:10:45,620
Deze zes strategieën die ik vandaag heb gedeeld kunnen je helpen om die balans te vinden.

127
00:10:46,200 --> 00:10:50,800
Modulaire kaders, werken met guardrails, vangnetten, multidisciplinaire teams.

128
00:10:51,740 --> 00:10:54,940
Governance inrichten in je technologielaag.

129
00:10:55,340 --> 00:10:58,420
En die level-based toezicht in de juiste cultuur.

130
00:10:58,980 --> 00:11:03,560
Ik daag je uit om minstens één van deze strategieën die je vandaag gehoord hebt,

131
00:11:04,100 --> 00:11:05,900
concreter te gaan toepassen in jouw organisatie.

132
00:11:06,760 --> 00:11:10,060
Begin klein, bijvoorbeeld met opstellen van herberuikbare templates,

133
00:11:10,470 --> 00:11:14,060
of modelkaarten, of een risicoclassificatie model.

134
00:11:14,920 --> 00:11:17,520
Het zou heel leuk zijn als je je ervaringen deelt,

135
00:11:17,960 --> 00:11:19,680
want dan kunnen we ook leren van elkaar.

136
00:11:19,780 --> 00:11:25,440
dus als je dat zou willen doen via de socials heel graag en het laatste is natuurlijk altijd

137
00:11:26,060 --> 00:11:31,840
bedenk en ja is niet de oplossing voor het probleem maar onmisbaar waar het past dank je wel weer

138
00:11:31,840 --> 00:11:32,420
voor het luisteren


People on this episode