AIToday Live
AIToday Live is een boeiende Nederlandstalige podcast voor iedereen die geïnteresseerd is in de wereld van kunstmatige intelligentie, ongeacht hun technische achtergrond. Hier zijn een paar redenen waarom je misschien wilt luisteren naar AIToday Live:
- Expert Inzichten: De podcast biedt gesprekken met Nederlandse en Belgische experts op het gebied van AI, waardoor luisteraars waardevolle inzichten en meningen rechtstreeks van leiders en vernieuwers in de industrie krijgen.
- Toegankelijk voor een Breed Publiek: Of je nu diep in de technische details zit of gewoon nieuwsgierig bent naar AI, de podcast presenteert informatie op een manier die zowel begrijpelijk als boeiend is voor zowel zakelijke als IT-professionals.
- Laatste Nieuws en Trends: Blijf op de hoogte van de nieuwste ontwikkelingen en innovaties in AI. De podcast dekt AI for Good en andere belangrijke trends die invloed kunnen hebben op verschillende industrieën en de samenleving als geheel.
Gepresenteerd door Joop Snijder, CTO van Aigency, en Niels Naglé, Area Lead Data & AI van Info Support, biedt de podcast een uniek perspectief op de praktische toepassing van AI binnen organisaties. Het duo bespreekt de (on)mogelijkheden van AI, de impact ervan op bedrijfsprocessen en hoe organisaties deze technologie kunnen inzetten om hun doelstellingen te bereiken.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Met deskundige gasten uit de industrie en academische wereld, biedt de AIToday Live podcast een platform voor het delen van best practices, innovaties en belangrijke inzichten in de wereld van AI. Van de nieuwste algoritmen en modellen tot de impact van AI op de toekomst van werk, de podcast biedt waardevolle informatie voor iedereen die geïnteresseerd is in AI en de rol die het speelt in organisaties.
Voor exclusieve content over de podcast achter de schermen, aankondiging van gasten en exclusieve artikelen, schrijf je dan in voor de nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E03 - Olifanten, Rangers en AI
In de recente aflevering van AIToday Live komt Thijs Suijten aan het woord, een programmeur die de overstap heeft gemaakt van de corporate wereld naar natuurbehoudsprojecten. Hij deelt zijn inzichten over het gebruik van AI-technologieën in de strijd tegen stroperij en het beheren van mens-dierconflicten in Afrika.
Thijs' betrokkenheid bij projecten zoals 'Hack the Planet' van Q42 en samenwerkingen met het Wereld Natuur Fonds toont hoe AI real-time data kan bieden voor directe acties tegen stroperij. Ook bespreekt hij hoe deze technologie wordt ingezet om conflicten tussen mensen en olifanten te minimaliseren.
Deze aflevering benadrukt de praktische uitdagingen en de potentie van AI in de complexe wereld van natuurbehoud. Luister naar de ervaringen en toekomstplannen van Thijs in AIToday Live, gepresenteerd door Joop Snijder en Niels Naglé, via platforms zoals Spotify, Apple Podcasts en Google Podcasts.
Links
- Cursus: Practical Deep Learning (https://course.fast.ai)
- Ai-challenge: AI for bears (https://app.fruitpunch.ai/challenge/ai-for-bears)
- softwarebedrijf: Q42 (https://q42.nl/)
- non-profit organisatie: Wereld Natuur Fonds (WNF) (https://www.wnf.nl/)
- hardware: Raspberry Pi (https://www.raspberrypi.org/)
- software: PyTorch (https://pytorch.org/)
- platform: Fast AI (https://www.fast.ai/)
- platform: TensorFlow (https://www.tensorflow.org/)
- dienst: Vertex AI (voorheen AutoML) (https://cloud.google.com/vertex-ai)
- documentaire: The Social Dilemma (https://www.netflix.com/title/81254224)
- organisatie: Foundation Conservation Carpathia (https://www.carpathia.org/)
- boek: The Lean Startup door Eric Ries (https://www.bol.com/nl/nl/p/de-lean-startup/9200000017140098/?bltgh=s2aPE-QDDAQraQD3-MRPVQ.2_10.11.ProductTitle)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:09,560
Hoi, welkom bij een nieuwe aflevering van de AIToday Live. Met vandaag de gast Thijs Suijten.
2
00:00:09,560 --> 00:00:15,640
En we gaan het hebben over olifanten, Afrika en AI. En hoe dat zit? Ja,
3
00:00:15,640 --> 00:00:21,520
daar moet je even door blijven luisteren. Thijs, welkom bij ons in de podcast. Leuk
4
00:00:21,520 --> 00:00:25,680
dat je mee wilt doen. Zou je je aan de luisteraars eerst even willen voorstellen?
5
00:00:25,680 --> 00:00:33,600
Yes, ja nou leuk dat ik hier kan zijn. Ik ben dus Thijs en ja, hoe zou ik mezelf voorstellen?
6
00:00:33,600 --> 00:00:43,520
Ja. Nerds is eigenlijk de beste omschrijving. Al meer dan 20 jaar ben ik bezig met programmeren,
7
00:00:43,520 --> 00:00:50,400
computers, alles wat daarbij komt kijken. Ik denk toen ik een jaar of 12 was kocht mijn vader
8
00:00:50,400 --> 00:00:56,000
voor het eerst een computer. En ja, dat is eigenlijk het startschot geweest om daarmee
9
00:00:56,000 --> 00:01:00,080
aan de slag te gaan. En ik heb het nooit meer losgelaten. Ja, en je bent best wel iets heel
10
00:01:00,080 --> 00:01:07,480
speciaals gaan doen in onze ogen. En dat is niet zozeer de corporate wereld in toch? Nee,
11
00:01:07,480 --> 00:01:15,000
nee ja goed. Het is maar net hoe je het bekijkt eigenlijk. Ik ben al een hele tijd bezig. Heb
12
00:01:15,000 --> 00:01:21,240
bij een aantal verschillende bedrijven gewerkt. Ook bij ja, corporate. Een corporate is natuurlijk,
13
00:01:21,240 --> 00:01:25,480
dat is de definitie van een corporate. Dat is gewoon een bedrijf toch? Ja, zeker. In die zin
14
00:01:25,480 --> 00:01:32,320
werk ik nog steeds bij een bedrijf. Ja, dus ja. Ik kan niet helemaal zeggen dat ik niet in de
15
00:01:32,320 --> 00:01:37,120
corporate wereld ben gaan werken. Maar inderdaad de projecten die ik op dit moment doe, die zijn
16
00:01:37,120 --> 00:01:44,680
wel anders dan anders zou je kunnen zeggen. Ja, en nou ja, ik heb wat voorkennis. Want ik heb jou
17
00:01:44,680 --> 00:01:49,720
een praatje gezien bij de World Summit AI. Had je je presentatie en daar was ik zo van onder de
18
00:01:49,720 --> 00:01:55,720
indruk dat ik zei van, kom dat alsjeblieft zeg maar bij ons in de podcast vertellen. Dus ik ben echt
19
00:01:55,720 --> 00:02:02,120
super blij dat je er bent. En het mooie is, jij bent aan de slag gegaan met computer vision. Dus
20
00:02:02,120 --> 00:02:10,120
het kunnen kijken van machines. En wij gebruiken dat zelf heel veel voor documenten, mensen herkennen,
21
00:02:10,120 --> 00:02:14,440
dat soort zaken. Maar jij zet het op een andere manier in. Ja, wij zijn dat uiteindelijk gaan
22
00:02:14,440 --> 00:02:22,560
inzetten om te kijken hoe kunnen we olifanten en mensen in Afrika beschermen. Niet alleen olifanten,
23
00:02:22,560 --> 00:02:30,120
maar ook neushoorns en andere bedreigde diersoorten. Ja, en waar, hoe ben je op dat idee
24
00:02:30,120 --> 00:02:36,320
gekomen? Laten we daar eens beginnen. Ja, we zijn, om jullie en de luisteraars een beetje context te
25
00:02:36,320 --> 00:02:45,480
geven. Op dit moment werk ik bij Q42. Dat is een softwarebedrijf, dus een corporate in Nederland.
26
00:02:45,480 --> 00:02:53,880
We maken van alles nog wat. Eigenlijk, ja, een collega van Info Support. En we maken de PostNL
27
00:02:53,880 --> 00:03:01,640
app en de website van het Rijksmuseum, et cetera, et cetera. En binnen Q42, Runne, Tim en dat is mijn
28
00:03:01,640 --> 00:03:06,480
collega en ik, een afdeling genaamd Hack the Planet. En bij Hack the Planet kijken we eigenlijk
29
00:03:06,480 --> 00:03:12,000
van hoe kunnen we nou al die slimme dingen die we dus dagelijks gebruiken voor die grote klanten
30
00:03:12,000 --> 00:03:16,040
waar we voor werken, hoe kunnen we die nou inzetten voor iets goeds? Hoe kunnen we daar nou iets goeds
31
00:03:16,040 --> 00:03:22,840
mee doen? En ja, vanuit die context doen we dit soort projecten. En iets goeds, dat is heel breed.
32
00:03:22,840 --> 00:03:27,320
We doen eigenlijk ook projecten die gaan alle kanten op. Misschien komen we daar later nog op.
33
00:03:27,320 --> 00:03:32,480
Maar in dit specifieke geval voor die olifanten, waren we op een gegeven moment in gesprek geraakt
34
00:03:32,480 --> 00:03:39,520
met rangers. Via Vieren Wereld Natuur Fonds. Daar zijn we in gesprek geraakt met de mensen die dus
35
00:03:39,520 --> 00:03:46,120
in Nationale Parken in Afrika dieren beschermen. En die werken in gigantische gebieden. Die Nationale
36
00:03:46,120 --> 00:03:52,360
Parken zijn vaak zo groot als Nederland en België bij elkaar. Ja, bizar. En rangers die
37
00:03:52,360 --> 00:03:57,120
hebben vaak een klein team. Dus een 10, 20 rangers die moeten dan zo'n gebied patrouilleren,
38
00:03:57,120 --> 00:04:04,640
beschermen. En wij leerden dat ze veel werken met wildcamera's. Nou ja, ik heb er hier eentje bij me.
39
00:04:04,640 --> 00:04:09,560
De luisteraar kan dat niet zien, dus ik zal het beschrijven. Een wildcamera is eigenlijk een
40
00:04:09,560 --> 00:04:15,120
apparaatje wat je vastbindt aan een boom. Er zit een bewegingssensor op. En op het moment dat er
41
00:04:15,120 --> 00:04:21,280
dus iets voorbij loopt, dan neemt hij een foto. En die foto die slaat hij op op een geheugenkaartje.
42
00:04:21,280 --> 00:04:26,680
Nou, dat is een super waardevolle tool voor rangers die heel veel gebruikt wordt om bijvoorbeeld
43
00:04:26,680 --> 00:04:31,440
te kijken waar veel olies van te lopen of waar neushoorns lopen. Maar ook bijvoorbeeld om te
44
00:04:31,440 --> 00:04:36,840
kijken waar stroopers actief zijn in hun park. Ja, het is een apparaatje, want wij zien het wel,
45
00:04:36,840 --> 00:04:42,240
die past gewoon in de palm van je hand. Ja, die past in de palm van je hand en die maken ze vaak
46
00:04:42,240 --> 00:04:47,640
met een spanband vast aan een boom. Er zitten een aantal batterijen in en die dingen die gaan
47
00:04:47,640 --> 00:04:53,400
echt wel iets van een jaar mee of zo. En je zegt slaat op op het apparaat. Maar wordt het ook
48
00:04:53,400 --> 00:04:59,600
nog cloud connected? Nou, dat was precies de gedachte die wij hadden. Want we hoorden dat,
49
00:04:59,600 --> 00:05:05,560
van nou deze gebruiken we veel. Maar dat betekent als je die dingen dus uit het veld haalt. En even
50
00:05:05,560 --> 00:05:11,000
voor de duidelijkheid, dat is niet zeg maar bij jou in de achtertuin op de hoek. Soms moeten
51
00:05:11,000 --> 00:05:16,520
dus gewoon teams twee weken lopen in de jungle om dat ding op te hangen en op te halen. Ja,
52
00:05:16,520 --> 00:05:21,560
dat zijn echt gigantische afstanden. Dus wij dachten ook van ja, super waardevolle tool,
53
00:05:21,560 --> 00:05:25,240
maar je weet pas na zes maanden of na een jaar weet je pas wat er gebeurd is. En dat wil je toch
54
00:05:25,240 --> 00:05:32,040
eigenlijk gelijk weten. Zeker als het gaat om stropers. Dus toen dacht ik, dat moet toch slimmer
55
00:05:32,040 --> 00:05:38,800
kunnen. En ja, wat was dan het eerste wat je denkt van er zijn vast al mensen mee bezig. Of ik ben
56
00:05:38,800 --> 00:05:45,200
vast niet de eerste die dit denkt. Toch? Ja, zeker. Dus dan ga je googlen en ja, tot onze grote
57
00:05:45,200 --> 00:05:50,760
verbazing was er gewoon nog niet echt zoiets. En je hebt dan wel bijvoorbeeld van dit soort
58
00:05:50,760 --> 00:05:55,800
beeldcamera's die je kunnen koppelen op een 4G netwerk. Dus dan kan je wel de beelden
59
00:05:55,800 --> 00:06:01,120
realtime eigenlijk ontvangen. Ja, het probleem is in dat soort gebieden is, daar is geen 4G netwerk.
60
00:06:01,120 --> 00:06:08,200
Dus hoe ga je dat probleem dan oplossen? Dat was dan eigenlijk voor ons de volgende vraagstuk. En
61
00:06:08,200 --> 00:06:13,240
toen hebben we eigenlijk gekeken van, hoe kunnen we op een pragmatische manier de problemen oplossen?
62
00:06:13,240 --> 00:06:19,520
Onze kracht, onze doelstelling is eigenlijk, ja, hack the planet. De naam zegt het al een beetje.
63
00:06:19,520 --> 00:06:25,760
Hoe kunnen we een beetje hacky manier zoiets oplossen? Want het is nogal makkelijk om verzeil
64
00:06:25,760 --> 00:06:30,240
te raken in zo'n probleem en dan vervolgens tien jaar verder te zijn. Dus wat hebben we gedaan?
65
00:06:30,240 --> 00:06:35,520
We hebben een bestaande camera eigenlijk gepakt. En daarmee een klein beetje elektronica aan
66
00:06:35,520 --> 00:06:45,720
toegevoegd en een wifi sd kaartje. Zodat hij dus draadloze capabilities krijgt. En dan? Wat zouden
67
00:06:45,720 --> 00:06:53,480
jullie doen? Ja, ik zit mijn hoofd wel te breken. Misschien met elkaar connecten of zo. Ja, jullie
68
00:06:53,480 --> 00:06:57,600
zijn natuurlijk ook techneuten, dus wat dat betreft werkt jullie brein op dezelfde manier als die van
69
00:06:57,600 --> 00:07:03,280
mij. Ja, we hebben zo'n camera dus connected gemaakt en dan hebben we eigenlijk, dan heb ik hier een
70
00:07:03,280 --> 00:07:08,640
ander apparaatje in mijn handen. Die is iets groter. Sommige mensen hebben wel eens tegen mij
71
00:07:08,640 --> 00:07:15,000
gezegd dat ding lijkt op een Claymore Mine. Ik weet niet of dat een goede vergelijking is. Zeker
72
00:07:15,000 --> 00:07:20,960
niet omdat wij die dingen in onze handbagage meenemen. Het is een mooi klein kistje. Ja,
73
00:07:20,960 --> 00:07:26,120
een beetje een medicijn grote doosje van in de auto zie je zo vaak. Dat is niet mega veel
74
00:07:26,120 --> 00:07:31,560
groter dan de camera, maar net wat groter inderdaad. Klopt. En wat we hierin hebben gestopt,
75
00:07:31,560 --> 00:07:38,480
is hier zit een stukje van ons eigen elektronica onderwerp in. Daar draait een microcontroller op,
76
00:07:38,480 --> 00:07:45,600
dus heel low power. Hier zitten zes oplaadbare batterijen in en je kan hier een zonnepaneeltje
77
00:07:45,600 --> 00:07:51,800
aankoppelen. Kijk. Ja, en met het zonnepaneeltje laadt hij dus op als hij een paar uur zon per dag
78
00:07:51,800 --> 00:07:58,680
krijgt. En wat er dus gebeurt, op het moment dat die wildcamera nu een foto neemt. Dus je moet je
79
00:07:58,680 --> 00:08:03,320
woord zijn dat die wildcamera die hangt een meter boven de grond aan een boom ergens. Dit extra
80
00:08:03,320 --> 00:08:09,960
kastje hang je op een meter of tien hoog in een boom, want dan kan je makkelijker je zonnepaneeltje
81
00:08:09,960 --> 00:08:15,600
positioneren ook. Zeker in Gabon, waar we die dingen hebben hangen, wat echt een regenwoud is.
82
00:08:15,600 --> 00:08:22,000
En op het moment dat die wildcamera zijn foto neemt, stuurt hij een signaaltje naar dit stuk
83
00:08:22,000 --> 00:08:32,680
elektronica. En hierop zit een Raspberry Pi via compute. Een soort mini computer. En die Raspberry
84
00:08:32,680 --> 00:08:39,200
Pi die zetten wij dus aan. En die Raspberry Pi gaat de foto's van die wildcamera af downloaden.
85
00:08:39,200 --> 00:08:43,160
Dan gebruiken we dus machine learning om te kijken van nou wat staat er op die foto's. Staat er een
86
00:08:43,160 --> 00:08:49,600
mens op of een olifant. En ja dan komt het belangrijkste. Hoe krijg je die informatie
87
00:08:49,600 --> 00:08:54,760
op de telefoons van je rangers? Ja precies. En daarom hebben we hier hierboven in het kastje
88
00:08:54,760 --> 00:09:01,360
zit een satellietmodem. Wij gebruiken het Iridium netwerk. En je kan met zo'n satellietmodem per
89
00:09:01,360 --> 00:09:08,600
bericht kan je 340 bytes versturen. Oké, dat is heel weinig. Dus wat wij doen is wij versturen
90
00:09:08,600 --> 00:09:13,840
niet de afbeelding. Maar we hebben eigenlijk de classificatie resultaten van dat machine
91
00:09:13,840 --> 00:09:18,600
learning model die encoden we op een hele slimme manier in zo min mogelijk bytes. Dus we hebben
92
00:09:18,600 --> 00:09:24,480
per afbeelding 6 bytes nodig. En er zit in datum tijd, welke classificatie is het,
93
00:09:24,480 --> 00:09:30,840
hoe zeker is je model ervan. Met de classificatie bedoel je dus staat er een olifant op of niet of
94
00:09:30,840 --> 00:09:37,520
een ander dier. Precies ja. En ja het kan dus zijn dat er meerdere classificaties ook op die
95
00:09:37,520 --> 00:09:42,600
camera staan. Want als er een olifant voorbij loopt dan heb je vaak meerdere foto's of een mens. En
96
00:09:42,600 --> 00:09:47,000
dan via die satellietmodem versturen we dus die informatie eigenlijk direct naar de telefoons
97
00:09:47,000 --> 00:09:58,280
van rangers. Oké, gaaf. En wat betekent dit voor die rangers? Nou, wat betekent dit voor die rangers?
98
00:09:58,280 --> 00:10:04,680
Ja, wij hebben dit eigenlijk ontworpen met als doel stroperij. Dus dan kun je stropers opsporen.
99
00:10:04,680 --> 00:10:10,040
En als je dan eenmaal je tanden in zo'n project gaat zetten leer je super veel. Want even eerlijk,
100
00:10:10,040 --> 00:10:15,680
ik weet niet veel van stroperij en ik weet niet veel van de werkzaamheden van die rangers. En
101
00:10:15,680 --> 00:10:19,880
dat is eigenlijk het leuke aan je tanden in dit soort problematiek zetten waar je eigenlijk zelf
102
00:10:19,880 --> 00:10:27,400
niet zoveel van weet. Dan leer je een heleboel en je spot een heleboel kansen. Dus we zijn in
103
00:10:27,400 --> 00:10:31,760
2021 naar gebonden gegaan en daar hebben we een project gedaan. Daar hebben we tien van deze
104
00:10:31,760 --> 00:10:40,200
werelds eerste AI smart camera's opgevangen. Mooi. Dat was heel cool. En in de tussentijd hebben we
105
00:10:40,200 --> 00:10:45,680
ook geleerd dat er bijvoorbeeld ook veel mens olifant conflicten zijn in Afrika. Dus dat zijn
106
00:10:45,680 --> 00:10:50,560
olifanten die steeds meer in de leefgebieden van mensen komen. En dat zorgt voor dodelijke
107
00:10:50,560 --> 00:10:55,440
confrontaties voor zowel de olifanten als de mensen. En in Gabon hebben we eigenlijk het
108
00:10:55,440 --> 00:11:02,320
systeem daarvoor ingezet. Dus kunnen we olifanten zien en dan als een soort early warning system,
109
00:11:02,320 --> 00:11:07,840
signaaltjes sturen naar de rangers en lokale mensen, dat olifanten in aantocht zijn.
110
00:11:07,840 --> 00:11:15,600
Oh ja. Dat is dan eigenlijk een soort van pivot, een draai ten opzichte van de stroperij, toch?
111
00:11:15,600 --> 00:11:22,440
Ja dat klopt. En de reden dat, ja, ons systeem kan nog steeds natuurlijk ingezet worden om mensen
112
00:11:22,440 --> 00:11:28,600
te spotten en het model wat er opdraait herkent ook mensen. Het is alleen zo dat we hebben toen
113
00:11:28,600 --> 00:11:33,840
voor die uitrol gekozen omdat dat op ons pad kwam. We hebben daar samen gewerkt met de universiteit
114
00:11:33,840 --> 00:11:41,000
van Sterling en dat was gewoon voor ons het meest veilige eerste project waarbij we deze technologie
115
00:11:41,000 --> 00:11:47,240
konden uitproberen. Die gebieden waar echt veel stroperij in kon, heb je een aantal van dat soort
116
00:11:47,240 --> 00:11:52,440
gebieden, die zijn levensgevaarlijk. En dan wil je dus eigenlijk ook niet zomaar rondlopen. Dus
117
00:11:52,440 --> 00:11:57,960
dit was voor ons eigenlijk een soort van nieuw probleemgebied, maar ook een laagdrempelige en
118
00:11:57,960 --> 00:12:04,280
veilige manier om deze technologie te testen. Mooi, ja. Eigenlijk een mooie MVP, dus eerste
119
00:12:04,280 --> 00:12:09,920
product om in de praktijk te testen. Ja klopt. En die camera's zaten dan in een gebied van
120
00:12:09,920 --> 00:12:18,440
een woongebied waar de mensen woonden en daar omheen hingen ze? Ja klopt. Maar dus dan krijgen
121
00:12:18,440 --> 00:12:22,560
dan nu de rangers een signaal of krijgen de bewoners ook een signaal? Nee, in dit geval
122
00:12:22,560 --> 00:12:28,560
krijgen de rangers van de parkinstantie waarmee we gewerkt hebben, die krijgen daar een signaal
123
00:12:28,560 --> 00:12:34,840
van. Oké, en wat gaan zij doen dan? Ja, dit was echt een, dat project in gebonden was echt een
124
00:12:34,840 --> 00:12:40,680
eerste pilot. Dus dat is echt, ja dan ben je aan het ontdekken of de technologie werkt, blijft
125
00:12:40,680 --> 00:12:49,320
die opgeladen. Dus het was een heel grote soort van technische validatie van, werkt zo'n dergelijk
126
00:12:49,320 --> 00:12:56,920
systeem. En in dit geval werd die informatie dus aan rangers gestuurd en afhankelijk van welk
127
00:12:56,920 --> 00:13:04,880
gebied, gaan rangers dus daar zo'n dorp toe om te kijken van, hé wat is er aan de hand? Is er een
128
00:13:04,880 --> 00:13:12,520
conflict ontstaan, et cetera. Dus het is niet zo dat ze gelijk op hun, in de auto springen en
129
00:13:12,520 --> 00:13:18,600
daar met de gillende sirene zo gaan aangaan. Het was vooral ook gewoon om te leren van,
130
00:13:18,600 --> 00:13:25,720
werkt dit, levert het waardevolle informatie op en dat doet het zeker. Wat waren nou dingen waar
131
00:13:25,720 --> 00:13:31,680
je tegenaan bent gelopen die je van tevoren nou helemaal niet had kunnen bedenken? God,
132
00:13:31,680 --> 00:13:40,480
hier kunnen we denken een hele topkast met. Ja, een heleboel dingen eigenlijk, een heleboel
133
00:13:40,480 --> 00:13:46,600
praktische dingen waar je niet over nadenkt, die je daar dus in het veld tegenaan loopt. Maar ook
134
00:13:46,600 --> 00:13:51,160
wel op technisch vlak. Zullen we eens bij de technische beginnen? Ja, laten we dat doen.
135
00:13:51,160 --> 00:13:57,320
Ja, ik ben dus zelf eigenlijk, voordat ik met dit idee in de gang ging, had ik zelf nog niet
136
00:13:57,320 --> 00:14:06,480
zo heel veel gedaan met machine learning en AI. Ik kijk ook niet naar AI als van, oh we gaan nu AI
137
00:14:06,480 --> 00:14:11,200
inzetten om dit of dat te doen. Dat is niet mijn drijfveer. Mijn drijfveer is, ik wil dit probleem
138
00:14:11,200 --> 00:14:19,160
oplossen en hoe kan ik dat doen? In dat geval was AI de logische antwoord daarop. Dus ik ben
139
00:14:19,160 --> 00:14:25,200
eigenlijk begonnen met een cursus volgen online. Ik weet niet meer precies wat zijn achternaam is,
140
00:14:25,200 --> 00:14:33,440
Jeremy heet hij geloof ik, van Fast AI. Die heeft een cursus en de titel daarvan is Machine Learning
141
00:14:33,440 --> 00:14:39,200
for Coders of zoiets. Zullen we hem even opzoeken en in de show notes zetten. Ja, ik vond die heel
142
00:14:39,200 --> 00:14:43,240
erg leuk, omdat die dus heel erg bij de baas begint van hoe werkt machine learning, om je echt een
143
00:14:43,240 --> 00:14:49,280
begrip te geven. En zijn tagline is 'making AI uncool again'. Ja, oh wat goed. Omdat er toch altijd
144
00:14:49,280 --> 00:14:54,440
een soort van zweem van magie of mysterie omheen hangt. Wat helemaal niet nodig is. Wat helemaal
145
00:14:54,440 --> 00:14:58,440
niet nodig is en hij laat zien, dit is gewoon wiskunde, het zijn matrix multiplicaties en
146
00:14:58,440 --> 00:15:05,880
het is niks spannend. Dus ik ben daarmee begonnen, vol goede moed eigenlijk. En Fast AI is dus een
147
00:15:05,880 --> 00:15:13,760
framework wat bovenop PyTorch draait. En nou al vrij snel ging ik daar op een gegeven moment met
148
00:15:13,760 --> 00:15:17,600
plaatjes aan de gang en ging ik modelletjes trainen en er kwamen eigenlijk best wel aardige resultaten
149
00:15:17,600 --> 00:15:23,600
uit. En dan had ik op een gegeven moment een model getraind en dan ga je met zo'n raspberry pi
150
00:15:23,600 --> 00:15:31,400
aan de gang om dat model daarop te draaien. Challenge, uitdaging. Dat was echt hoofdpijn.
151
00:15:31,400 --> 00:15:37,360
Dat was echt, het crashte de hele tijd en het performde voor geen meter. Het eerste model dat ik
152
00:15:37,360 --> 00:15:44,640
gebruikte dat was een ResNet model. Het duurde geloof ik 20 seconden of per afbeelding om te
153
00:15:44,640 --> 00:15:52,000
classificeren zeg maar. Ja dat is wel erg lang. Dat is zeker lang. En de moeilijkheid zit er
154
00:15:52,000 --> 00:15:56,640
natuurlijk in dat die Raspberry Pi is een minicomputer, dus je heeft veel minder rekenkracht
155
00:15:56,640 --> 00:16:03,920
dan als je bijvoorbeeld op je laptop ofzo doet. Ja of in de cloud. Ja de cloud is nog meer.
156
00:16:03,920 --> 00:16:09,440
Ja precies. Nee dus dat was een uitdaging. Nou toen ben ik vanuit daar eigenlijk nog even in
157
00:16:09,440 --> 00:16:14,000
die wereld blijven hangen. Dus heb ik verschillende modellen en architecturen uitgeprobeerd en sommige
158
00:16:14,000 --> 00:16:17,800
performen wat beter dan andere. Maar ik liep er ook wel tegenaan dat ik toch wel merkte dat
159
00:16:17,800 --> 00:16:24,480
die er heel vaak spontaan uit klapte. Het was niet heel erg stabiel zeg maar. En wat is er enger
160
00:16:24,480 --> 00:16:30,880
dan een stukje code schrijven wat ergens in een doosje hangt in het midden van het regenwoud van
161
00:16:30,880 --> 00:16:37,680
Afrika waar je niet bij kan. Waar je twee weken moet lopen om je data op te halen. Ja of om te
162
00:16:37,680 --> 00:16:41,640
updaten. Dan wil je wel dat het, dan wil je wel een beetje vertrouwen hebben dat het stabiel draait.
163
00:16:41,640 --> 00:16:46,480
Ja ja. Dat is toch wel een vraag die bij mij altijd in mijn hoofd blijft. Je noemt net update
164
00:16:46,480 --> 00:16:50,760
hierop. Maar stel zo'n model, misschien wil je nog wat dingen hertrainen en dat soort zaken. Hoe
165
00:16:50,760 --> 00:16:55,480
zou dat in zo'n situatie gaan? Ja grappig dat je het vraagt. Ik heb daar wel rekening mee gehouden.
166
00:16:55,480 --> 00:17:02,800
Dus er zit een update mechanisme in het systeem. Zoals ik al eerder zei in die wildcamera zit een
167
00:17:02,800 --> 00:17:09,600
SD kaartje, een geheugenkaartje. En op het moment dat die mini computer eigenlijk verbinding maakt
168
00:17:09,600 --> 00:17:13,640
met die camera. Dan kijkt die op dat geheugenkaartje. Staat daar een zip verhaal met een
169
00:17:13,640 --> 00:17:17,880
bepaalde naamgeving. En als die er staat dan downloadt die zip verhaal en dan update die
170
00:17:17,880 --> 00:17:24,000
zichzelf. Ja oké. Dus ja dat is een vrij laagdrempelige manier waarop wij dan toch
171
00:17:24,000 --> 00:17:31,680
zo'n systeem. Je moet er wel naartoe maar je kan hem wel updaten. Ja dus ja dat is wel,
172
00:17:31,680 --> 00:17:36,680
dat zijn wel de eerste hoofdpijntjes die ik heb gehad in de ontwikkeling van het systeem. Ik dacht
173
00:17:36,680 --> 00:17:44,120
van ja leuk dat machine learning. Maar voor mijn gevoel en ik denk dat dat klopt. Waar ik tegen
174
00:17:44,120 --> 00:17:50,400
aanliep is er zijn heel veel mensen bezig met met modellen trainen en competities. En dan kwam
175
00:17:50,400 --> 00:17:55,520
het Kaggle competitie. En dan was het van oh ja we hebben nu dit model dat performt 1 procent
176
00:17:55,520 --> 00:18:01,760
punt beter dan de vorige keer. Etcetera. In dat gebied gebeurt heel veel in de academische wereld
177
00:18:01,760 --> 00:18:09,760
van trainen en beter performen. Maar hoe krijg je die technologie nou echt zeg maar daadwerkelijk
178
00:18:09,760 --> 00:18:15,280
op een stukje hardware aan de praat. Ja. Ik voelde me daar best wel eenzaam soms. Ik dacht van oké
179
00:18:15,280 --> 00:18:19,560
ben ik de enige die dit aan het proberen is. Want ik kon werkelijk waar heel weinig vinden over hoe
180
00:18:19,560 --> 00:18:24,480
je dat dan doet. Ja nee dat klopt. En er zijn wel bedrijven die hierin gespecialiseerd zijn.
181
00:18:26,280 --> 00:18:31,640
Maar ik deel jouw mening weet je zeker kegel. Kegel is eigenlijk gewoon een competitie website.
182
00:18:31,640 --> 00:18:36,720
Dus daar gaan ze alleen maar op nauwkeurigheid. Performance, performance, performance. En
183
00:18:36,720 --> 00:18:41,480
niemand kijkt naar wat dat betekent in de praktijk en of het dan nog wel bruikbaar is.
184
00:18:41,480 --> 00:18:50,880
En het kleine maken van modellen. Ik denk dat dat zeker in de aankomende periode een heel groot
185
00:18:50,880 --> 00:18:57,680
issue wordt. Want je wil dingen veel meer zo direct op je telefoon draaien. Je wil het,
186
00:18:57,680 --> 00:19:03,040
nou ja wat jij zegt, op van die minicomputertjes kunnen draaien. We hebben enorm large language
187
00:19:03,040 --> 00:19:08,280
models. Volgens mij moeten die kleiner worden om ze energiezuiniger te maken. Dus ik denk dat je
188
00:19:08,280 --> 00:19:13,200
daar een enorme voorloper in ben geweest. Waarbij we de aankomende jaren gaan zien dat er meer
189
00:19:13,200 --> 00:19:19,480
aandacht voor gaat komen. Ja en dat proef je dan ook. Dat voel je dan ook. Dat als je dus een aantal
190
00:19:19,480 --> 00:19:23,400
voorloper bent, dan heb je dus het gevoel dat je al die problemen voor eerst en alleen moet oplossen.
191
00:19:23,400 --> 00:19:31,520
Dus dat was best wel een uitdaging. Zeker als je dus redelijk groen bent zeg maar in het veld van
192
00:19:31,520 --> 00:19:38,800
machine learning. En dan al die dingen. Maar dat is ja, dan is het gewoon, dat noem ik dan pitbull
193
00:19:38,800 --> 00:19:46,920
modus aan. Tanden erin zetten en pas loslaten als het gelukt is. En ja uiteindelijk heb ik het weten
194
00:19:46,920 --> 00:19:53,040
op te lossen. Misschien een beetje een anti-climax. In ieder geval zo voelde het voor mij ook een beetje.
195
00:19:53,040 --> 00:19:58,200
Want ik had heel veel geleerd over machine learning en hoe je dan eigen modellen kon trainen etc. En
196
00:19:58,200 --> 00:20:01,800
toen dacht ik van nou ik moet iets anders gaan proberen. Dus ben ik naar TensorFlow gaan kijken.
197
00:20:01,800 --> 00:20:07,400
Dan ben ik daar eigenlijk hetzelfde gaan proberen. Met de samples van Google ben ik modellen gaan
198
00:20:07,400 --> 00:20:13,360
trainen. En daar kwamen eigenlijk hele slechte resultaten uit. Dus op een of andere manier
199
00:20:13,360 --> 00:20:17,880
kon ik met dat fast AI en PyTorch kon ik vrij makkelijk goede accurate modellen trainen.
200
00:20:17,880 --> 00:20:22,080
Maar dan runnen ik die samples van Google. Van dit is hoe je een image classification doet.
201
00:20:22,080 --> 00:20:27,000
Op dezelfde dataset. En er kwamen echt verschrikkelijke modellen uit.
202
00:20:27,000 --> 00:20:31,400
Het stond dan soms ook in de comments van Google. Stond zelf van dit is een voorbeeld hoe je een
203
00:20:31,400 --> 00:20:38,800
model traint en de resultaten zijn misschien niet heel goed. You get the idea. Dus dan dacht ik van
204
00:20:38,800 --> 00:20:46,120
ja shit. Maar die TensorFlow modellen die draaiden wel heel goed. En toen kwam ik uiteindelijk bij
205
00:20:46,120 --> 00:20:51,760
AutoML terecht. Dat heet tegenwoordig Vertex AI op de Google platform. Maar dat is basically een
206
00:20:51,760 --> 00:20:56,920
service van Google waarbij je gewoon je dataset upload en dan zegt train optimaliseren voor
207
00:20:56,920 --> 00:21:03,120
hardware. En dat was uiteindelijk de oplossing. Ja want wat hij dan gaat doen is allerlei algoritmes
208
00:21:03,120 --> 00:21:07,640
trainen en dan optimaliseren. In dit geval waarschijnlijk op grootte van het model.
209
00:21:07,640 --> 00:21:12,720
Dan krijg je het best mogelijke model eruit. Ja want volgens mij, de grap is dat je weet dus
210
00:21:12,720 --> 00:21:16,800
niet precies wat hij doet. Want het is echt een black box. Maar wat hij volgens mij doet is
211
00:21:16,800 --> 00:21:23,240
verschillende netwerkarchitecturen uitproberen in het trainingsproces. En ook allemaal hyper
212
00:21:23,240 --> 00:21:29,960
parameters aanpassen. Om zo eigenlijk geautomatiseerd tot het beste oplossing te komen.
213
00:21:29,960 --> 00:21:34,360
Ja want ieder algoritme kent een soort van van knopjes waar je aan kan draaien. En dat zijn die
214
00:21:34,360 --> 00:21:41,960
hyper parameters waar je het over hebt. Ja en daar kwam dus uiteindelijk voor ons het het goede
215
00:21:41,960 --> 00:21:47,600
model uit uit te rollen. En dat voelde dus een beetje als een ja dan ben je eerst heel veel effort
216
00:21:47,600 --> 00:21:50,800
ergens in aan het steken. En heel veel aan het leren. En uiteindelijk is het gewoon een standaard
217
00:21:50,800 --> 00:21:56,680
service. Dat had ik dan ook wat maanden kunnen besparen. Had je heel veel minder geleerd natuurlijk.
218
00:21:56,680 --> 00:22:02,480
Had ik heel veel minder geleerd. Dus het is geen weggegooid geld. Maar het heeft me wel tijd gekost
219
00:22:02,480 --> 00:22:07,560
om tot dat punt te komen. Ja snap ik. Ja en die TensorFlow, we gebruiken nu dus TensorFlow Lite
220
00:22:07,560 --> 00:22:13,400
modellen. Dat zijn dus van die kleinere modellen die dus ook op je telefoon draaien. Ja en daar
221
00:22:13,400 --> 00:22:20,440
passen ze onder andere technologie toe die heet Quantization. Dus dan ik zeg wel nog steeds ben
222
00:22:20,440 --> 00:22:25,520
ik geen expert expert op dit gebied. Maar wat ze doen is de weights die in je modellen zitten,
223
00:22:25,520 --> 00:22:31,800
de gewichten, dat zijn normaal floating point getallen. Die zetten ze om naar 8 bit integers.
224
00:22:31,800 --> 00:22:37,000
Waardoor je model een stuk kleiner wordt en ook sneller. En ja dat draait dus goed op zo'n Raspberry
225
00:22:37,000 --> 00:22:42,200
Pi bijvoorbeeld. Ja dus door getallen eigenlijk kleiner te maken en versimpelen maak je eigenlijk
226
00:22:42,200 --> 00:22:47,600
de formule simpeler. Waardoor die sneller en makkelijker kan rekenen. Ja zeker op zoiets
227
00:22:47,600 --> 00:22:52,320
als een Raspberry Pi. Dan kan gewoon makkelijker rekenen met integers zeg maar dan met gehele
228
00:22:52,320 --> 00:23:02,240
getallen. Met getallen met allemaal cijfers achter de comma. Ja. Je had technische zaken die je geleerd
229
00:23:02,240 --> 00:23:05,520
had en waar je tegenaan was gelopen en ook nog praktische zaken. Ik ben ook wel nieuwsgierig
230
00:23:05,520 --> 00:23:13,960
naar die praktische zaken. Ja want dat is nog iets waar een groot gat is volgens mij. Waar wij
231
00:23:13,960 --> 00:23:20,680
tot nu toe een aantal keer wel in geslaagd zijn om het gat te overbruggen. En dat is het is leuk
232
00:23:20,680 --> 00:23:26,800
dat je op een Raspberry Pi op je bureau een modelletje draait kan krijgen. Maar hoe stop
233
00:23:26,800 --> 00:23:34,560
je dat in een oplossing die je in een regenwoud kan ophangen. Die daar ook lang blijft draaien.
234
00:23:34,560 --> 00:23:40,360
En waar de rangers zelf ook mee kunnen werken. Ja want ja je bent er niet altijd. We zijn daar
235
00:23:40,360 --> 00:23:45,120
twee weken geweest en dan probeer je te laten zien zo werkt het zo hang je het op. Je wil wel
236
00:23:45,120 --> 00:23:49,280
eigenlijk dat de mensen er zelf mee kunnen werken zonder dat jij erbij bent. Precies. En dat is nog
237
00:23:49,280 --> 00:23:55,360
wel de grootste uitdaging. En ik denk dat daar de grootste sleutel is. Het pragmatiek. Oh ja.
238
00:23:55,360 --> 00:24:05,160
Toch de kracht van het weglaten. Waar heb je iets weggelaten wat je dacht van ja maar dit hebben
239
00:24:05,160 --> 00:24:10,680
we eigenlijk wel nodig. Een van de dingen die je eigenlijk altijd te horen krijgen is ja maar we
240
00:24:10,680 --> 00:24:18,080
willen zo graag die foto zien. Dat snap ik. En dit is dus precies waar het als engineer heel
241
00:24:18,080 --> 00:24:23,320
verleidelijk is om dan te gaan denken van oké we kunnen per bericht kunnen we 340 bytes versturen.
242
00:24:23,320 --> 00:24:31,640
Wat nou op een afbeelding heel erg comprimeren als thumbnail en hem in 20 stukjes hakken. Dan
243
00:24:31,640 --> 00:24:38,360
kom je op zoveel bytes uit. Nou dan heb je dan kan je best een thumbnail versturen. En dan voeg
244
00:24:38,360 --> 00:24:42,080
je een volg nummertje toe en dan kan je op de backend kan je ze weer aan elkaar lijmen en dan
245
00:24:42,080 --> 00:24:48,440
kan je je afbeelding maken. Nou technisch gezien is dat inderdaad best mogelijk. Maar dit is echt
246
00:24:48,440 --> 00:24:52,880
iets waar wij altijd van hebben gezegd oké we gaan dat niet doen. Omdat dat gewoon een rabbit hole
247
00:24:52,880 --> 00:24:57,560
is die je dan ingaat om dat technisch ook helemaal goed te krijgen. Moet je zoveel effort en tijd
248
00:24:57,560 --> 00:25:03,320
insteken en niet te vergeten te zeggen dat de kosten van je satellietverbinding zeg maar ook
249
00:25:03,320 --> 00:25:10,480
doortikken. Ja. Hebben we altijd gezegd oké dat doen we niet. En zo zijn er eigenlijk nog een
250
00:25:10,480 --> 00:25:18,480
heleboel features geweest. Ja. Ik doe nu air quotes. Die je gedurende het ontwikkelen van
251
00:25:18,480 --> 00:25:24,400
zo'n ding bedenkt of tegenkomt van het zou tof zijn als. Maar ja hou gewoon soort van hyper focus
252
00:25:24,400 --> 00:25:29,560
op dat probleem wat je probeert op te lossen en probeer niet onderweg een zevenkop gedraak te
253
00:25:29,560 --> 00:25:36,000
creëren. Dat is wel belangrijkste learning eigenlijk. Ja want dan ben je eigenlijk met
254
00:25:36,000 --> 00:25:42,680
de techniek bezig en niet meer met het oplossen van de mens olifant conflicten die je daar hebt
255
00:25:42,680 --> 00:25:47,760
waar je mee bezig was. Hoe heb je voor jezelf die focus kunnen hanteren? Want je zegt net
256
00:25:47,760 --> 00:25:52,480
zelf je bent techie, nerd en dat soort zaken. Die verleiding is natuurlijk heel groot. Want
257
00:25:52,480 --> 00:25:56,320
technisch weten we dat het kan. En we zien het ook in praktijk. We zien het ook bij bedrijven
258
00:25:56,320 --> 00:26:00,000
inderdaad dat dan één keer heel veel functie erbij komt. Hoe heb je toch die focus kunnen
259
00:26:00,000 --> 00:26:06,240
behouden? Ja ik denk dat dat, en dan moeten we iets verder terug gaan. Ik denk dat dat echt
260
00:26:06,240 --> 00:26:13,520
iets wat ondertussen in mijn in mijn dna zit. Dan zou je het bijna kunnen zeggen. En dat is
261
00:26:13,520 --> 00:26:22,400
eigenlijk door schade en schande ben ik daar wijs in geworden. Ik werk nu, nou ik denk tien jaar
262
00:26:22,400 --> 00:26:28,840
ondertussen bij Q42. Daarvoor heb ik een eigen bedrijf gehad. Ook een kleine software onderneming
263
00:26:28,840 --> 00:26:34,400
met een aantal andere mede-eigenaren. En dat was in die periode, ontwikkelden wij een digitaal
264
00:26:34,400 --> 00:26:40,560
product. En dat product dat verkochten we af en toe maar het liep niet helemaal lekker. En ik had
265
00:26:40,560 --> 00:26:45,080
zo'n beetje iedere regelcode in dat product had ik wel aangeraakt of geschreven. Dus ik heb daar
266
00:26:45,080 --> 00:26:50,240
heel veel effort in gestoken. En toen ging ik op een gegeven moment de boek de Lean Startup lezen.
267
00:26:50,240 --> 00:26:55,960
Kennen jullie dat boek? Zeker. Hebben jullie hem ook gelezen allebei? Ja absoluut. En toen ik dat
268
00:26:55,960 --> 00:27:00,000
boek aan het lezen was, dacht ik van oké volgens mij iedere fout die hierin beschreven staat,
269
00:27:00,000 --> 00:27:08,040
die ben ik aan het maken. Ja zo voelde het heel erg. Kan je daar drie noemen? Nou ja een aantal
270
00:27:08,040 --> 00:27:13,080
van die van die fouten zitten zeg maar op business vlak. Dus wij dachten ook van dat product,
271
00:27:13,080 --> 00:27:17,600
ah misschien als we deze feature erbij maken dan verkoopt die wel. Ja dat is eigenlijk,
272
00:27:17,600 --> 00:27:22,720
dat is vrijwel nooit het geval. Maar het is heel erg verleidelijk om dat te denken. Zeker als je
273
00:27:22,720 --> 00:27:29,560
klanten er bijvoorbeeld om vragen. Maar veel, er ligt waarschijnlijk een dieper achterliggend ding
274
00:27:29,560 --> 00:27:34,040
achter. Dat de markt of je marketing of wat dan ook, dat daar iets niet helemaal lekker zit.
275
00:27:34,040 --> 00:27:44,440
Maar eigenlijk voor mij als techie, als CTO destijds van dat product, ja hij heeft het mij echt doen
276
00:27:44,440 --> 00:27:49,000
realiseren. Dat ik dacht van oh mijn god ik heb zoveel uren en zoveel regels code in dit project
277
00:27:49,000 --> 00:27:55,040
zitten. En hoeveel features heb ik wel niet geschreven die eigenlijk niemand gebruikt. En
278
00:27:55,040 --> 00:27:59,440
dat was zo'n klap in mijn gezicht, kan je dat haast wel noemen? Die echt wel, zeg maar tijdens het
279
00:27:59,440 --> 00:28:05,760
lezen van dat boek, is dat inzicht bij mij gekomen. Dat dat heeft wel echt mijn gedachtenpatroon
280
00:28:05,760 --> 00:28:09,800
veranderd. Ik dacht van oké, maar als ik nu aan dingen werk dan wil ik gewoon eigenlijk zeker
281
00:28:09,800 --> 00:28:15,640
weten dat de regels code die ik schrijf, dat die bijdragen aan iets echts, aan iets nuttigs wat
282
00:28:15,640 --> 00:28:21,400
mensen echt gebruiken. Precies. Niet een of andere feature achter in een product wat zeg maar 1% van
283
00:28:21,400 --> 00:28:27,360
je mensen ooit misschien een keer aanklikt. Ja. En toen was ik helemaal nog niet zo heel erg bezig
284
00:28:27,360 --> 00:28:33,280
met dit soort projecten in Afrika, etc. Maar dat was gewoon meer, ja bijna vanuit het gevoel van
285
00:28:33,280 --> 00:28:36,400
nutteloosheid. Ik voelde me gewoon heel erg nutteloos eigenlijk best wel in die periode.
286
00:28:36,400 --> 00:28:40,680
Ik dacht van ja shit, ik heb zoveel effort eigenlijk zitten weggooien gewoon voor niks.
287
00:28:40,680 --> 00:28:44,680
Ja, omdat je denkt dat iemand het nodig heeft. Ja, omdat je denkt dat iemand het nodig heeft,
288
00:28:44,680 --> 00:28:50,400
of omdat je inderdaad je eigen tech verleidingen achterna loopt. Precies, ja. Dat is ook nog een
289
00:28:50,400 --> 00:28:55,360
goeie. En dat is wel mooi dat je dan inderdaad niet bent begonnen met het uploaden van die
290
00:28:55,360 --> 00:29:02,480
foto's. Dat je zegt van nee, dat gaan we niet doen. Kost gewoon te veel tijd en draagt uiteindelijk
291
00:29:02,480 --> 00:29:07,400
niks bij aan wat je aan het doen bent. Precies, het geeft wel iets extra's,
292
00:29:07,400 --> 00:29:11,480
maar het lost in basis het probleem niet op. Kijk, nu hangen die camera's daar en mensen weten niks.
293
00:29:11,480 --> 00:29:16,120
Ja. En met ons systeem krijgen ze zo'n waardevolle schat aan informatie erbij. En natuurlijk zou
294
00:29:16,120 --> 00:29:18,920
die foto leuk zijn, maar… Die kan ook wat later.
295
00:29:18,920 --> 00:29:22,040
Die kan ook wat later inderdaad. Ja, en ook nog, weet je,
296
00:29:22,040 --> 00:29:26,880
ja als je er straks tien gezien hebt, dan zeggen mensen nou ja, ik geloof het. En daarna is het
297
00:29:26,880 --> 00:29:32,000
ook klaar. Dan heb je er ontzettend veel tijd, geld en energie ingestoken. En dan is het zo direct
298
00:29:32,000 --> 00:29:36,360
ook, ja, dat niemand er meer naar kijkt. Nee, dat zijn wij ook. Op het moment dat je
299
00:29:36,360 --> 00:29:41,360
genoeg vertrouwen krijgt in het model wat er is, daar ging het natuurlijk uiteindelijk om. Dat mensen
300
00:29:41,360 --> 00:29:47,760
moeten vertrouwen krijgen in dat het model wat er op draait inderdaad accuraat genoeg is. Dus ja,
301
00:29:47,760 --> 00:29:54,200
terugkomend op je vraag van hoe kan je dus je eye on the ball houden. Ja, dat is echt wel een proces
302
00:29:54,200 --> 00:29:58,600
van de afgelopen tien, vijftien jaar die ik heb doorgemaakt. Die ik ook zeg maar in de projecten
303
00:29:58,600 --> 00:30:03,960
die we hebben gedaan. Dus ik heb dan op een snel app gewerkt. En dat was dat eigenlijk altijd mijn
304
00:30:03,960 --> 00:30:09,640
focus van oké jongens, wat we hier nu gaan doen. Deze feature die we nu gaan bouwen. Niet zomaar
305
00:30:09,640 --> 00:30:16,440
klant vraagt waar je draait, maar altijd gewoon ja, beetje die waarom vraag erop zoeken, achterop
306
00:30:16,440 --> 00:30:21,440
zoeken van is dit wel nuttig. We zullen hem ook weer opnemen in de show note. Want het boek lijkt
307
00:30:21,440 --> 00:30:27,480
door de lean startup dat het vooral is voor startups. Maar het is eigenlijk voor iedereen
308
00:30:27,480 --> 00:30:33,080
die ook maar iets te maken heeft met met bouwen ontwikkelen, maar ook van proces ontwikkelen. Als
309
00:30:33,080 --> 00:30:40,040
jij procedures of zo maakt voor je bedrijf verval je natuurlijk ook heel snel in allerlei moeilijke
310
00:30:40,040 --> 00:30:44,520
dingen en zo. Dus voor iedereen is eigenlijk die die lean startup is wel een aanrader. Ja,
311
00:30:44,520 --> 00:30:49,640
ik denk dat je daar inderdaad wel de spijker op de kop slaat met het stukje. Why? Dus het doel
312
00:30:49,640 --> 00:30:54,800
continu voor ogen hebben. Zoals je zegt, inderdaad, het moet daar op locatie hangen en dit is wat het
313
00:30:54,800 --> 00:31:00,240
moet doen. En daar toon ik ze me terug aan. Draagt het daaraan bij? Nee, nu niet. En dan durven
314
00:31:00,240 --> 00:31:05,000
afknippen van die functionaliteiten. Ja, mooi om te horen. Andere vraag die ik nog had is, wat
315
00:31:05,000 --> 00:31:09,560
heeft het gedaan met de rangers? Want die hadden een camera en die ging af en toe foto's ophalen.
316
00:31:09,560 --> 00:31:15,160
Maar nu in één keer hadden ze dus signalen die ze kregen, ineens extra informatie die op ze afkwam.
317
00:31:15,160 --> 00:31:21,520
Wat heeft het met hun werk gedaan? Ja, dat is dat was wel echt een magisch moment bijna toen we daar
318
00:31:21,520 --> 00:31:27,280
waren. Want ik denk dat we hebben ongeveer zes maanden gewerkt aan dit systeem. Van bedenken
319
00:31:27,280 --> 00:31:34,600
tot dat we echt iets hadden waarvan we dachten van daar kunnen we mee op pad. En zo'n tripje
320
00:31:34,600 --> 00:31:39,160
naar Gabon gaat je ook niet in de koude kleren zitten. Want dat is nou, je moet er natuurlijk
321
00:31:39,160 --> 00:31:44,680
heen. Maar toen waren we in de hoofdstad aangekomen, Libreville, en dan moesten we nog naar het
322
00:31:44,680 --> 00:31:50,120
Nationale Park. Dat is Lopé National Park. Tim en ik, ik was een cameraman, was daarmee een
323
00:31:50,120 --> 00:31:58,160
documentairemaker. We hebben met z'n drieën 14 uur achterin een jeep opgevouwen gezeten met
324
00:31:58,160 --> 00:32:08,120
koffers en eten en stinkende mannen. Dat was echt een helse ervaring om daar te komen. Dus ja,
325
00:32:08,120 --> 00:32:13,760
dat is best wel intens. Maar dan kom je daar dus en dan sta je eigenlijk op een plek op de wereld
326
00:32:13,760 --> 00:32:20,520
die zo afgelegen is. Waar voor honderden kilometers om je heen niets anders is dan regenwoud,
327
00:32:20,520 --> 00:32:26,480
ongerepte natuur. Ja, en dan dat is toch wel een hele bijzondere ervaring. En ik kan me nog
328
00:32:26,480 --> 00:32:31,200
goed herinneren dat, ja wij komen dan op zo'n magische plek aan met een koffer vol elektronica.
329
00:32:31,200 --> 00:32:35,640
En die hadden we op een gegeven moment, er hing daar een waslijn. We hebben al die,
330
00:32:35,640 --> 00:32:40,400
al die mini computers, we noemen het smart bridges, die hadden we aan die waslijn gehangen.
331
00:32:40,400 --> 00:32:44,480
Want we wilden ze allemaal even testen en dubbelchecken dat ze goed werkten. En we
332
00:32:44,480 --> 00:32:48,400
hadden dat gedaan. En we stonden dus aan die ranger uit te leggen van, nou je heb hier die
333
00:32:48,400 --> 00:32:52,520
camera's app, die wildcamera, die kennen ze natuurlijk al. Dus dat was voor hun bekend
334
00:32:52,520 --> 00:32:56,920
terrein. Dus we hadden aan die ranger uitgelegd van hoe dat systeem werkt. Dus die ranger die
335
00:32:56,920 --> 00:33:01,760
vertelde op een gegeven moment aan ons terug van, oké dus die camera die neemt een foto,
336
00:33:01,760 --> 00:33:05,720
dan gaat dat magische doosje gaat dan herkennen wat er op die foto staat en dan krijg ik een
337
00:33:05,720 --> 00:33:11,360
watch appje met deze camera heeft nu een olifant of een mens gezien. En toen zag je eigenlijk
338
00:33:11,360 --> 00:33:15,580
gewoon dat kwartje bij hem vallen. En toen had hij echt zoiets van, holy shit, welkom
339
00:33:15,580 --> 00:33:21,320
in de toekomst. Je zag echt die realisatie bij hem. En dat was ook even een momentje
340
00:33:21,320 --> 00:33:28,480
dat ik Tim even een knuffel heb gegeven. Dat je dan denkt, nou ja, je staat hier en dan
341
00:33:28,480 --> 00:33:30,920
realiseer je ook wat voor impact dat kan hebben.
342
00:33:30,920 --> 00:33:39,720
Wauw, te gek. Wat mij intrigeerde bij jouw praatje bij de World Summit AI, is dat op
343
00:33:39,720 --> 00:33:45,160
een gegeven moment kwam Céline Dion om de hoek kijken. Zou je daar wat over?
344
00:33:45,160 --> 00:33:49,480
Ja, Niels zit met me heel verbaasd te kijken. Wat heb je het over?
345
00:33:49,480 --> 00:33:52,120
We hebben het over olifanten, we hebben het over AI.
346
00:33:52,120 --> 00:33:54,120
En dan hebben we Céline Dion.
347
00:33:54,120 --> 00:33:56,520
Ja, Niels, wil je het niet over Céline Dion hebben?
348
00:33:56,520 --> 00:34:00,600
Vorige keer hadden we al een heel leuk gesprek met iemand van de radio en de muziek.
349
00:34:00,600 --> 00:34:04,000
Toen hebben we het wel over mijn muziekstijl gehad, maar daar zat Céline Dion niet bij,
350
00:34:04,000 --> 00:34:07,520
kan ik je verklappen. Als je die aflevering nog niet geluisterd hebt, zeker even doen.
351
00:34:07,520 --> 00:34:16,920
Ja, nice. Nee, dat is een hele bijzondere clashing of worlds, zou je bijna kunnen zeggen.
352
00:34:16,920 --> 00:34:23,440
En dat is eigenlijk ook het leuke en het krachtige als je daar dus bent. Want als je daar dan
353
00:34:23,440 --> 00:34:28,800
als techie in die wereld ondergedompeld wordt met die rangers, zoals ik eerder al zei,
354
00:34:28,800 --> 00:34:32,680
we hebben geleerd van mens-olifant conflicten, dat is echt een gigantisch probleem, wisten
355
00:34:32,680 --> 00:34:36,200
we ook niks van. Hebben we echt geleerd door dit project te gaan doen, om door samen te
356
00:34:36,200 --> 00:34:41,360
gaan werken met rangers. Mens-olifant conflicten zijn misschien nog wel een groter probleem
357
00:34:41,360 --> 00:34:44,160
dan stroperij voor olifanten.
358
00:34:44,160 --> 00:34:52,440
Want daar kunnen de olifanten ook zoveel wond raken dat ze daar ook aan sterven, toch?
359
00:34:52,440 --> 00:34:57,000
Ja, zeker. Ze raken niet toevallig voor wond, want je moet je voorstellen wat er gebeurt.
360
00:34:57,000 --> 00:35:03,720
En in dit geval in Gabon, een regenwoud, door klimaatverandering produceren de bomen minder
361
00:35:03,720 --> 00:35:09,640
fruit. En die olifanten die eten dat fruit, dus je krijgt hongerige olifanten. En dat
362
00:35:09,640 --> 00:35:14,280
kunnen ze echt zien in de foto's ook, dat de olifanten een stuk magerder zijn. Dus die
363
00:35:14,280 --> 00:35:18,480
olifanten gaan op zoek naar eten op andere plekken. En vaak zijn dat dus plantages van,
364
00:35:18,480 --> 00:35:24,200
er zijn er kleine dorpjes. En dat zijn geen dorpjes zoals jij en ik hier in Nederland.
365
00:35:24,200 --> 00:35:28,560
Daar een plaatje van schetsen, maar dat zijn echt Afrikaanse dorpjes. Dat is heel kleinschalig.
366
00:35:28,560 --> 00:35:33,640
En die mensen die verbouwen daar hun eigen voedsel, want dat is hoe ze rond moeten doen
367
00:35:33,640 --> 00:35:39,320
het leven. Ze hebben daar geen Albert Heijn waar ze naartoe kunnen. En wat er dus gebeurd
368
00:35:39,320 --> 00:35:44,120
is, die olifanten die breken steeds meer in in zo'n plantage. En die komen daar niet
369
00:35:44,120 --> 00:35:49,720
gewoon even een paar bananen eten, maar die vernietigen echt zo'n bananenboom. Dus het
370
00:35:49,720 --> 00:35:56,360
gewassen van die mensen daar worden echt vernietigd door die olifanten. En voor ons zijn olifanten
371
00:35:56,360 --> 00:36:00,840
misschien magische dieren, waar we heel erg "oh, nou mooie beesten". Maar als jij iedere
372
00:36:00,840 --> 00:36:05,000
dag drie olifanten in je achtertuin hebt staan die je gewassen komen verpesten, dan
373
00:36:05,000 --> 00:36:10,320
wordt je perceptie wel iets anders, kan ik je vertellen. Dus ja, je krijgt eigenlijk
374
00:36:10,320 --> 00:36:17,240
wraak van boeren die er achteraan gaan. Inderdaad, toen we daar door de plantage liepen, zagen
375
00:36:17,240 --> 00:36:22,720
we planken liggen van ongeveer een meter lang, met spijkers van 10-20 centimeter daar doorheen
376
00:36:22,720 --> 00:36:29,520
geslagen. Olifantenpunaises zou je het kunnen noemen. Maar ze gebruiken ook andere wapens
377
00:36:29,520 --> 00:36:34,760
of speren om achter die beesten aan te gaan. En die worden dus soms dodelijk verwond. Maar
378
00:36:34,760 --> 00:36:39,800
het komt ook regelmatig voor dat als jij in je plantage bezig bent je cassaven te oogsten
379
00:36:39,800 --> 00:36:47,800
en er komt opeens een olifant de hoek om, die valt jou aan en dat win je niet. Dus dat
380
00:36:47,800 --> 00:36:55,360
is echt een heel groot probleem. Heftig. We hadden dus van dat probleem geleerd en toen
381
00:36:55,360 --> 00:37:00,120
we dus in Gabon waren, toen liepen we op een gegeven moment door een plantage heen en we
382
00:37:00,120 --> 00:37:06,760
zagen daar een olievat staan. Dus geen olifant, maar een olievat. Zo'n metalen vat, met twee
383
00:37:06,760 --> 00:37:12,240
stokken erop. En we vragen van waarom staat dat ding hier? En de lokale rangers zeggen
384
00:37:12,240 --> 00:37:16,520
dus van ja, als wij weten dat er olifanten aankomen, gaan we een hoop kabaal maken in
385
00:37:16,520 --> 00:37:21,880
de hoop weg te jagen. En we hadden letterlijk de dag daarvoor onze eerste slimme camera's
386
00:37:21,880 --> 00:37:27,520
opgehangen en we hadden die avond al sms'jes of Whatsappjes gehad van die camera. "Hey,
387
00:37:27,520 --> 00:37:32,320
er is een olifant langsgelopen." Dus wij gingen naar die camera's toe om te kijken van "Klopt
388
00:37:32,320 --> 00:37:37,640
dat?" Dat klopte, dus dat was wel super cool. En dan loop je dus in zo'n plantage en wat
389
00:37:37,640 --> 00:37:43,520
denk je dan als engineer? "Ja, daar kunnen we wat mee." Ja, dat olifant kunnen we automatiseren.
390
00:37:43,520 --> 00:37:48,440
Dat is precies wat we gedaan hebben. Dus we hebben een systeem gemaakt wat samenwerkt
391
00:37:48,440 --> 00:37:53,240
met die slimme camera's. Op het moment dat die slimme camera's een olifant detecteren,
392
00:37:53,240 --> 00:37:56,100
sturen ze een berichtje naar dat apparaat. En dat apparaat is eigenlijk niets anders dan
393
00:37:56,100 --> 00:38:01,960
een stukje elektronica, wederom in een zonnepaneeltje. En een gigantische hoornluidspreker, waar
394
00:38:01,960 --> 00:38:08,960
we een bak kabaal over uitsturen en een grote lamp, een ledlamp, die begint te knipperen.
395
00:38:08,960 --> 00:38:14,240
En op het moment dat dus een olifant loopt, dan gaat er 200, 300 meter verderop, horen
396
00:38:14,240 --> 00:38:18,640
die olifanten opeens een hoop kabaal. En die olifanten kiezen er dan voor om niet die kant
397
00:38:18,640 --> 00:38:21,800
op te gaan. Over het algemeen proberen olifanten gewoon uit de buurt te blijven van mensen.
398
00:38:21,800 --> 00:38:28,600
En ja, dan hebben we dus eigenlijk een soort olifantenverschrikker gemaakt. En je moet je
399
00:38:28,600 --> 00:38:32,360
zo voorstellen, wij stonden in die plantage bij dat olifant en dan valt dat kwartje bij
400
00:38:32,360 --> 00:38:36,200
jou en dan denk je van, wat als? Nou dan kom je terug naar Nederland, ga je daar mee aan
401
00:38:36,200 --> 00:38:42,360
de slag. En dan sta je een jaar later dus in Zambia, die olifantenverschrikker uit te testen.
402
00:38:42,360 --> 00:38:50,800
Tim en ik hadden altijd zoiets van, wat voor geluiden zetten we erop? Want we hadden al
403
00:38:50,800 --> 00:38:53,680
bedacht, er moeten random geluiden zijn, want die olifanten zijn heel slim. Dus als je iedere
404
00:38:53,680 --> 00:38:58,560
keer hetzelfde afspeelt, dan leren ze dat. Dus we hadden allemaal muziek erop gezet.
405
00:38:58,560 --> 00:39:06,160
En geluiden van bijen en geluiden van metaaldeuren en auto's, wat ik veel. We zeiden altijd van,
406
00:39:06,160 --> 00:39:11,640
hoe grappig zou het zijn als ze, we zetten slimme jongers erop. Wat nou als ze olifanten
407
00:39:11,640 --> 00:39:20,040
kunnen wegjagn met my heart will go on. Ja en toen we in Zambia waren om dat systeem
408
00:39:20,040 --> 00:39:23,880
uit te rollen, hadden we net die avond, hadden we hem opgehangen en we zaten 's avonds
409
00:39:23,880 --> 00:39:32,000
bij het kamp. En we zaten daar te kletsen. En ik hoor in de verte zo'n panfluit. En ik
410
00:39:32,000 --> 00:39:37,800
zeg, jongens, stil eens eventjes. En ja hoor, daar ging Celine Dion over de vlakte. Ja,
411
00:39:37,800 --> 00:39:42,120
toen hebben we wel even goed moeten lachen inderdaad. Want er stonden iets van honderd
412
00:39:42,120 --> 00:39:45,160
geluiden op dat ding en hij speelde iedere keer een random geluid af. Dus we hadden
413
00:39:45,160 --> 00:39:49,880
de kans dat hij die avond zou werken en dat Celine Dion er zo afspeelt.
414
00:39:49,880 --> 00:39:56,480
Dat je daar gewoon getuige van bent. Ja, oh heerlijk. Ja, ik kan sowieso niet zo goed
415
00:39:56,480 --> 00:40:01,160
naar Celine Dion luisteren. Ik zou er ook van wegrennen. Als je fan bent, sorry voor
416
00:40:01,160 --> 00:40:07,680
dat. Maar ik kan nu sinds jouw praatje echt. Ik zat nou, je hebt op Q-music, nee wat was
417
00:40:07,680 --> 00:40:13,320
het nou, Radio 10 ofzo, die top 4000. Kwam Celine Dion voorbij en ik moest meteen aan
418
00:40:13,320 --> 00:40:16,920
olifanten denken. Dat gaat echt nooit meer weg.
419
00:40:16,920 --> 00:40:22,520
Als iemand Celine Dion toevallig kent ofzo, ik ben benieuwd wat zij daarvan zegt. Ik weet
420
00:40:22,520 --> 00:40:27,600
niet of ze er blij mee is of niet. Ze helpt wel heel veel mensen als ik dat zo hoor.
421
00:40:27,600 --> 00:40:33,760
We lachen erom, maar uiteindelijk is het natuurlijk echt for good. Ja, geweldig, geweldig verhaal.
422
00:40:33,760 --> 00:40:38,680
Ik ben benieuwd wat die olifanten er echt van vinden. Nou ja, genoeg om ervoor weg te
423
00:40:38,680 --> 00:40:43,000
rennen toch? Ja, dat is het grappige. In Gabon, het project
424
00:40:43,000 --> 00:40:49,000
wat we daar gedaan hebben, was echt een testen van doen onze slimme camera's het, leveren
425
00:40:49,000 --> 00:40:53,600
ze waarde op. Er hangen nu ongeveer een dertigtal van dat soort camera's in Gabon. Die worden
426
00:40:53,600 --> 00:41:00,720
nu eigenlijk voornamelijk ingezet voor real-time monitoren van biodiversiteit. Dus ze real-time
427
00:41:00,720 --> 00:41:04,480
informatie verzamelen over de hoeveelheid olifanten, de hoeveelheid andere diersoorten
428
00:41:04,480 --> 00:41:11,920
die dus in het bos rondlopen. En in Zambia hangen dan de eerste olifantenverschrikkers.
429
00:41:11,920 --> 00:41:18,320
En we hebben al foto's en filmpjes gezien van olifanten die dus reageren op dat systeem.
430
00:41:18,320 --> 00:41:22,120
En dan zitten daar de specialisten die dus heel goed aan het gedrag van de olifanten
431
00:41:22,120 --> 00:41:27,880
kunnen zien hoe ze zich voelen. En je ziet ze gewoon echt kijken en luisteren en opschrikken.
432
00:41:27,880 --> 00:41:31,760
Dus niet dat ze zich eigenlijk helemaal door het tandje schrikken en wegrennen, maar je
433
00:41:31,760 --> 00:41:36,640
ziet echt dat ze het horen. Dat was ook onze bedoeling van een afstandje. En ze denken
434
00:41:36,640 --> 00:41:42,520
oké, die kant gaan we niet op. Eigenlijk gewoon onaangenaam in plaats van paniek. Ja,
435
00:41:42,520 --> 00:41:48,560
precies. En dat is toch wel heel cool om te zien dat je dan ziet dat die technologie daar
436
00:41:48,560 --> 00:41:53,840
echt werkt en dat dit soort ideeën dan zo bij elkaar kunnen komen. En staat er nog iets
437
00:41:53,840 --> 00:42:01,840
op de planning van wat je gaat toevoegen of uitbreiden? Ja, genoeg. De grap is als je
438
00:42:01,840 --> 00:42:08,920
dus naar zo'n uitrol gaat, kom je altijd terug met tien nieuwe ideeën. En wat er nu concreet
439
00:42:08,920 --> 00:42:14,360
op de planning staat is die olifantenverschrikkers hebben we ook in Roemenië uitgerold. Ja,
440
00:42:14,360 --> 00:42:20,280
zijn er niet zo heel veel olifanten in Roemenië? Nee. Beren ofzo? Ja, precies beren. Op een
441
00:42:20,280 --> 00:42:26,120
gegeven moment zijn we benaderd door een organisatie, Carpathia. En die zeiden, we hebben gezien
442
00:42:26,120 --> 00:42:31,200
wat jullie doen met olifanten. We hebben eigenlijk hetzelfde probleem, maar dan met beren. Dus
443
00:42:31,200 --> 00:42:36,360
we hebben een doorontwikkeling gemaakt van ons systeem. Dat is wel echt lastig trouwens
444
00:42:36,360 --> 00:42:40,520
hoor. Als je het hebt over hardware, ik weet niet waarom ze het hardware noemen. Het is
445
00:42:40,520 --> 00:42:48,760
hard. Heel moeilijk is. Zeker. Deze versie van die slimme computer, die kunnen we eigenlijk
446
00:42:48,760 --> 00:42:52,040
al niet meer produceren omdat er chipjes in zitten die niet meer te verkrijgen zijn. En
447
00:42:52,040 --> 00:42:57,840
dan moet je een nieuwe revisie maken. Ja. Dat is altijd lastig. Maar goed, dus zeg maar
448
00:42:57,840 --> 00:43:05,200
dit soort hardware projecten kosten wel extra veel inspanning. Dus we hebben het systeem
449
00:43:05,200 --> 00:43:08,920
een klein beetje aangepast en daar in Roemenië in een dorpje opgehangen. En we hangen nu
450
00:43:08,920 --> 00:43:15,200
veertien van die systemen eigenlijk om beren buiten dorpjes te hangen. Zo hé. Reageren
451
00:43:15,200 --> 00:43:20,160
die ook op Céline Dion? Nou, de grap is dus dat ze wel anders reageren. Het lijkt erop
452
00:43:20,160 --> 00:43:27,160
dat beren iets minder gevoelig daarvoor zijn. Zeker als het al probleemberen zijn. En we
453
00:43:27,160 --> 00:43:31,680
zijn ook aan het experimenteren met verschillende soorten geluiden. Dus het lijkt erop dat ze
454
00:43:31,680 --> 00:43:37,560
hoogfrequent geluid niet zo relaxed vinden. Een beetje van die hondenfluitjes. En dat
455
00:43:37,560 --> 00:43:46,280
werkt wel. Maar waar we ook achter zijn gekomen is dat het toch nog wel eens gebeurt dat een
456
00:43:46,280 --> 00:43:53,240
beer dan bij zo'n boer aankomt kloppen. En afgelopen zomer waren we in Roemenië en dat
457
00:43:53,240 --> 00:44:00,720
was echt een beerhoogseizoen. En dan was het gewoon dagelijks dat mensen van die organisatie
458
00:44:00,720 --> 00:44:06,640
Carpathia dus in die dorpen bezig waren omdat er gewoon beren rondliepen. En wat die beren
459
00:44:06,640 --> 00:44:11,760
dan doen is, die breken in bij boeren waar hun varkens of koeien rondlopen. En die vallen
460
00:44:11,760 --> 00:44:18,680
dan die varkens aan. En dat ziet er niet mooi uit, kan ik je vertellen. En het probleem
461
00:44:18,680 --> 00:44:24,640
is een beetje dat als beren eenmaal geleerd hebben dat daar zo'n boerderij een soort McDonald's
462
00:44:24,640 --> 00:44:30,520
is waar ze gewoon even een snackje kunnen halen. Dat leren ze heel snel. En dan worden
463
00:44:30,520 --> 00:44:35,720
het dus probleemberen. En die kan je dat eigenlijk niet meer afleren. Dus je wilt in alle tijden
464
00:44:35,720 --> 00:44:41,720
voorkomen dat de beren eigenlijk hun slag kunnen slaan daar. En een van de dingen waar
465
00:44:41,720 --> 00:44:48,680
we nu mee bezig zijn is wat we noemen een instant repeller. Dus zeg maar het verschrikkersysteem
466
00:44:48,680 --> 00:44:53,200
wat we nu hebben, daar zit wat tijd tussen. Dus het nemen van de foto en dat het systeem
467
00:44:53,200 --> 00:44:58,640
echt afgaat zit ongeveer 30 seconden tot 60 seconden zit daar tussen. En waar we nu mee
468
00:44:58,640 --> 00:45:03,680
bezig zijn is een systeem wat een video feed analyseert. En op het moment dat er dan een
469
00:45:03,680 --> 00:45:11,700
beer gesport wordt, dat we gelijk iets kunnen triggeren eigenlijk. En dan is de grote discussie
470
00:45:11,700 --> 00:45:15,480
wat gaan we dan doen om die beer weg te halen? Wat zouden jullie doen?
471
00:45:15,480 --> 00:45:24,280
Ja, ik weet niet of geur of dergelijke nog zou helpen inderdaad. Ik ben geen beer expert
472
00:45:24,280 --> 00:45:29,000
moet ik zeggen. Ik ook niet, maar ik zit toch wel even mijn hoofd te breken. Ik vind het
473
00:45:29,000 --> 00:45:38,720
een leuke prikkelende vraag. Is er een mogelijkheid om met andere dieren ofzo iets te doen?
474
00:45:38,720 --> 00:45:45,720
We hebben nu op het huidige systeem boze berengeluiden staan. Dat helpt wel.
475
00:45:45,720 --> 00:45:50,880
Ze zijn territoriaal dan? Ja, ze zijn ook wel inderdaad als je echt
476
00:45:50,880 --> 00:45:56,520
een alfamannetje geluiden laat maken dan heb je nog wel eens kans dat ze weg gaan.
477
00:45:56,520 --> 00:46:01,860
Hier moet ik niet wezen. Wat we ook wel hebben gehoord is op het moment
478
00:46:01,860 --> 00:46:05,180
dat een beer eenmaal, ik kan het bijna een beetje vergelijken met een kat. Ik weet niet
479
00:46:05,180 --> 00:46:08,800
of je wel eens een kat op straat hebt zien lopen die er dan achter een vogeltje aan zit.
480
00:46:08,800 --> 00:46:13,480
En dan voor die kat verdwijnt eigenlijk de rest van de omgeving. Dat heeft een beer ook
481
00:46:13,480 --> 00:46:18,920
een beetje. Die zoomt dan in op zijn prooi en dan kun je Céline Dion opzetten zo hard
482
00:46:18,920 --> 00:46:23,720
als je wil. Maar dat maakt dan niks meer uit. Dan heeft die beer al eens een lockdown op
483
00:46:23,720 --> 00:46:29,640
zijn prooi. Dus je moet wel van betere huizen komen om die beer weg te jagen.
484
00:46:29,640 --> 00:46:36,680
Wij zaten zelf te denken aan in Amerika of in Canada als je gaat wandelen moet je altijd
485
00:46:36,680 --> 00:46:42,440
beer spray bij je hebben. En dat is een soort pepper spray. Dat is vrij naar spul zeg maar
486
00:46:42,440 --> 00:46:45,920
wat je dus naar die beer kan sprayen. Dus we dachten misschien moeten we een geautomatiseerde
487
00:46:45,920 --> 00:46:49,260
pepper spray installatie maken. Maar dan moet je ook best wel heel dichtbij
488
00:46:49,260 --> 00:46:52,800
zijn toch? Ja, daar is dit systeem ook wel echt voor gemaakt.
489
00:46:52,800 --> 00:46:56,400
Dus als je vrij dichtbij bent. Dit is echt bedoeld om bij de boerderijen op te komen.
490
00:46:56,400 --> 00:47:02,900
Vlak voor het moment dat de beer een slag gaat slaan. We hebben nog gedacht aan paintball
491
00:47:02,900 --> 00:47:12,000
pistolen. Om ze fysiek ook te raken. Maar deze oplossingen zijn allemaal vrij, laten
492
00:47:12,000 --> 00:47:15,440
we zeggen, gevoelig. Want er lopen ook mensen daar.
493
00:47:15,440 --> 00:47:20,400
Ja, je zou me net geclastificeerd worden als beer.
494
00:47:20,400 --> 00:47:25,120
Ja, precies. Dus dat was wel iets waar we even onze hoofd over hebben gebroken. En we
495
00:47:25,120 --> 00:47:30,800
zijn nu uiteindelijk gaan we een prototype maken. En voor de luisteraars, hoe leg je
496
00:47:30,800 --> 00:47:40,040
dat het best uit? Je weet wel eens bij de autodealers staan ze wel eens. Ze noemen het skydancers.
497
00:47:40,040 --> 00:47:45,360
Dat zijn van die poppetjes die dan zo. Van die luchtarmpjes die zo in de weer dansen.
498
00:47:45,360 --> 00:47:50,600
En dat is waar we nu mee gaan beginnen. Dus je moet je voorstellen, we zetten zo'n ding
499
00:47:50,600 --> 00:47:54,600
bij die boer neer. In dat systeem. Op het moment dat er zo'n beer aankomt, gaat die
500
00:47:54,600 --> 00:48:01,760
motor aan. Dat is een vrij forse motor. En die poppetjes zijn vaak 3, 4, 5, 6 meter
501
00:48:01,760 --> 00:48:07,800
hoog. We hopen dat dat impressive genoeg is voor zo'n beer. Dat er opeens een dansende
502
00:48:07,800 --> 00:48:13,880
pop van 4 meter hoog staat om hem weg te jagen. Dan zou je wel de cirkel rond hebben. Want
503
00:48:13,880 --> 00:48:17,440
dan ben je eigenlijk weer bij een vogelverschrikker, maar dan in het hele groot.
504
00:48:17,440 --> 00:48:22,760
Precies. Dus dat is wat we nu gaan uitproberen. En dat wordt gewoon een kwestie van leren
505
00:48:22,760 --> 00:48:25,720
en kijken wat dit doet. Wat ontzettend interessant.
506
00:48:25,720 --> 00:48:29,760
Gaaf. Het lukt inderdaad. Of die beer dan gaat leren dat het toch niet gevaarlijk is, omdat
507
00:48:29,760 --> 00:48:32,360
het telkens hetzelfde is. Dat zou kunnen.
508
00:48:32,360 --> 00:48:35,120
Dat kan alleen maar door de praktijk te toetsen, lijkt mij.
509
00:48:35,120 --> 00:48:40,200
Op een gegeven moment zal je dan toch toe moeten naar dingen die aarrelaxer zijn voor
510
00:48:40,200 --> 00:48:43,560
die beer. Zoals een beer spray of wat dan ook.
511
00:48:43,560 --> 00:48:48,920
Wij hebben ook nog een virtuele co-host die ook nog graag een vraag zou willen stellen,
512
00:48:48,920 --> 00:48:53,440
Thijs. Daar halen we haar er even bij.
513
00:48:53,440 --> 00:49:13,200
Fijn dat je er bent. Mijn naam is Aisha. De AI van deze podcast mag ik je een vraag
514
00:49:13,200 --> 00:49:16,520
stellen? Dat mag.
515
00:49:16,520 --> 00:49:21,520
Denk je dat AI onze sociale relaties en communicatie gaat veranderen?
516
00:49:21,520 --> 00:49:28,040
Zo ja. Hoe? Nou, ik denk dat dat al aan het doen is.
517
00:49:28,040 --> 00:49:34,320
Ja toch? Dat lijkt me wel. AI, hoe wij met elkaar interacteren, behoorlijk
518
00:49:34,320 --> 00:49:38,200
veranderd is. Ik denk dat je eigenlijk, deze hele podcast
519
00:49:38,200 --> 00:49:45,240
gaat misschien wel over sociale verandering. Dat je een klein stukje techniek verpakt hebt
520
00:49:45,240 --> 00:49:51,240
in iets wat bruikbaar is, waardoor je andere sociale communicatie bent gaan stimuleren.
521
00:49:51,240 --> 00:49:57,560
Ja, dat zou je wel kunnen zeggen. Ik kijk het ook vaak vanuit de andere kant.
522
00:49:57,560 --> 00:50:02,240
Dat komt weer een beetje vanuit de achtergrond van de lean startup.
523
00:50:02,240 --> 00:50:08,520
Je kan je realiseren dat je in regels code weinig nuttigs hebt gedaan, tot nu bezig bent
524
00:50:08,520 --> 00:50:13,280
met projecten waarbij je voor mijn gevoel problemen probeert op te lossen die er meer
525
00:50:13,280 --> 00:50:21,520
toe doen. Dat je je ook realiseert dat er zoveel slimme
526
00:50:21,520 --> 00:50:29,080
mensen zijn. Sterker nog, de meeste slimme engineers van deze wereld zijn bezig met problemen
527
00:50:29,080 --> 00:50:34,560
op te lossen waarvan ik wel durf te zeggen, dat hebben we als mensheid toch niet echt
528
00:50:34,560 --> 00:50:40,160
nodig. De slimste machine learning engineers zitten
529
00:50:40,160 --> 00:50:48,480
bij Facebook om daar hun algoritmes te optimaliseren. Om je newsfeed meer clicks te laten genereren.
530
00:50:48,480 --> 00:50:53,280
Mensen meer verslaafd te maken. Als je het hebt over sociale interacties,
531
00:50:53,280 --> 00:51:00,040
op Netflix staat de docu Social Dilemma, geloof ik.
532
00:51:00,040 --> 00:51:06,400
Hebben jullie die gezien? Social Dilemma gaat over dat Facebook verhaal.
533
00:51:06,400 --> 00:51:10,400
Ja, die zei dat goed. Natuurlijk wist ik dat wel, maar ik vond
534
00:51:10,400 --> 00:51:15,360
die docu toch best wel confronterend. Omdat je machine learning aan het werk zet
535
00:51:15,360 --> 00:51:20,960
om te optimaliseren voor meer advertenties, meer verslaving, meer clicks, is de uitkomst
536
00:51:20,960 --> 00:51:27,280
meer polariserende content. En als je het hebt over gaat AI onze sociale interactie
537
00:51:27,280 --> 00:51:31,760
veranderen, dan zou ik zeggen, daar heb je een voorbeeld hoe dat absoluut aan de gang
538
00:51:31,760 --> 00:51:36,840
is op een manier die we niet willen. Nee, niemand kan zeggen dat we op dit moment
539
00:51:36,840 --> 00:51:42,600
geen last hebben van polarisatie. Nee, en dat komt, en daar komt dan weer die
540
00:51:42,600 --> 00:51:47,440
frustratie bij mij vandaan, dat ik denk van, eigenlijk zoveel knappe koppen zijn met dat
541
00:51:47,440 --> 00:51:51,240
soort oplossingen bezig. Terwijl als je daar dan in Afrika rondloopt en je ziet wat je daar
542
00:51:51,240 --> 00:51:54,640
allemaal kan doen met technologie om iets goeds te doen, dan denk je van, ja potverdorie,
543
00:51:54,640 --> 00:51:58,920
waarom zijn we dat dan niet allemaal aan het doen? Ja, dat snap ik natuurlijk ook wel.
544
00:51:58,920 --> 00:52:04,840
Waarom dat zo is? Natuurlijk omdat daar geen geld is. Maar dat is wel jammer,
545
00:52:04,840 --> 00:52:08,680
want dat is ook waarom een platform als Facebook of Twitter, of wat dan ook,
546
00:52:08,680 --> 00:52:15,040
zo polariserend is. Omdat AI eigenlijk gewoon voor de verkeerde uitkomst getraind wordt.
547
00:52:16,040 --> 00:52:21,040
Want een Facebook zou denk ik ook een heel mooi platform kunnen zijn. Als je een AI zou trainen
548
00:52:21,040 --> 00:52:28,280
die Facebook zou optimaliseren voor sociale cohesie en verbinding en menselijke contact,
549
00:52:28,280 --> 00:52:32,800
dan zou er iets heel moois uit kunnen komen. Maar we zijn gewoon voor de keer verkeerde
550
00:52:32,800 --> 00:52:36,560
metric aan het optimaliseren. Precies, helemaal mee eens.
551
00:52:36,560 --> 00:52:42,040
Dat was een buitengewoon informatief antwoord, dank je wel.
552
00:52:42,040 --> 00:52:48,720
Dank je, hoe heet ze ook weer? Aisha? Ze mag wel een beetje een overhok krijgen qua stem.
553
00:52:48,720 --> 00:52:54,960
Nee, dit is express. Wij zijn al voorbereid op de nieuwe EU AI Act,
554
00:52:54,960 --> 00:52:58,960
waarbij als jij aan het interacteren bent met een AI, dat het duidelijk is dat het zo is.
555
00:52:58,960 --> 00:53:03,680
Nee, maar ik heb serieus, want er zijn natuurlijk heel veel natuurlijke stemmen te krijgen,
556
00:53:03,680 --> 00:53:09,600
toch wel ervoor gekozen om voor zo'n robot stem te gaan. Dat je ook daadwerkelijk hoort dat je met
557
00:53:09,600 --> 00:53:15,160
een machine aan het praten bent en niet met een echt mens. Dus ik vind ook dat we de AI niet
558
00:53:15,160 --> 00:53:19,760
moeten vermenselijken. Dat doen we een klein beetje door er wel een naam te geven, maar
559
00:53:19,760 --> 00:53:29,400
daardoor houden we zeg maar die robots stem. Ontzettend bedankt voor dit informatief gesprek.
560
00:53:29,400 --> 00:53:34,680
Het is meer dan dat. Je hebt zoveel dingen geraakt aan praktijk qua techniek,
561
00:53:34,680 --> 00:53:42,720
maar ook in een hele andere cultuur waar je daartegen aan loopt. Zo mooi wat je doet voor
562
00:53:42,720 --> 00:53:48,840
de olifanten, voor de mens, voor het bestaan van beide in zo'n kleine gemeenschap ook.
563
00:53:48,840 --> 00:53:55,680
Het is heel erg inspirerend, heel erg fijn om dat te zien. Voor de luisteraar, Thijs heeft
564
00:53:55,680 --> 00:53:59,280
er allemaal camera's mee. Die kunnen jullie niet zien, maar we gaan zo direct nog even een
565
00:53:59,280 --> 00:54:05,240
korte videoopname maken. Abonneer je via de nieuwsbrief, dan ga je dan ook de video zien.
566
00:54:05,240 --> 00:54:13,400
Thijs, super bedankt. Ja toch? Ja zeker. Ik ben een beetje van beeldspraak, maar de olifant in
567
00:54:13,400 --> 00:54:17,640
de kamer en de beren op de weg. Ja, hele mooie samenvatting. Echt heel mooi om te horen inderdaad.
568
00:54:17,640 --> 00:54:21,720
Dus dank voor het delen van je verhaal. Leuk dat ik hier mocht zijn.
569
00:54:21,720 --> 00:54:31,080
Fijn dat je weer luisterde naar een aflevering van AIToday. Zorg dat je je abonneert via
570
00:54:31,080 --> 00:54:34,560
je favoriete podcast app en mis geen aflevering. Dank je wel voor het luisteren.
571
00:54:34,560 --> 00:54:35,060
Doei.
572
00:54:35,060 --> 00:54:37,060
573
00:54:37,060 --> 00:54:38,860
574
00:54:38,860 --> 00:54:40,580