You , I & A.I.

You , I & A.I. -Technologie en ons gedrag - Dr. Gert Meyers

Dominiek Henckaerts Season 1 Episode 3

Send us a text

In deze aflevering gaan we in gesprek met Dr. Gert Meyers, assistent professor Digital Health & Wellbeing. We verkennen hoe technologie—van stappentellers tot AI-beslissingssystemen—onze rollen en verantwoordelijkheden beïnvloedt. Vanuit zijn achtergrond in filosofie en sociologie deelt Gert hoe innovatie enerzijds oplossingen biedt, maar anderzijds ook nieuwe vragen oproept over ethiek en controle. 

Volg de podcast You, I & A.I. voor nieuwe inzichten over kunstmatige intelligentie.

 

00:00:07
Welkom bij deze nieuwe podcastaflevering van UI en I. Vandaag hebben we als gast Gert Meers. Gert Meers is een zeer interessante gast om meerdere redenen, maar vooral omdat bij hem een aantal velden samenkomen. Zo heeft hij filosofie en sociologie gestudeerd.

00:00:25
Hij werkt momenteel in de technologiesector, meer bepaald als assistent professor rond Digital Health & Wellbeing. Dankjewel om te komen. Fijn hier te zijn. Ik ben inderdaad assistent professor Digital Health & Wellbeing en doe onderzoek naar hoe technologie impact heeft als omgevingsfactor op gezondheids- en welzijnsbeleid. Ik onderzoek niet zozeer ín de technologie, maar over technologie, omdat ik zelf geen technologische achtergrond heb, maar eerder een sociologische en filosofische. Ik werk in wat ze Science and Technology noemen, een domein dat verschillende achtergronden combineert en vooral kijkt hoe technologie dingen met ons doet en wij dingen met technologie doen. Daar ligt ook de focus in ons departement, het Tilburg Institute for Law & Technology.

00:01:15
Ik ben geïntrigeerd door de vraag wat technologie met ons doet. Dat is natuurlijk een heel brede vraag. Kun je een specifiek voorbeeld geven van hoe technologie impact heeft op ons?

00:01:22
Een heel eenvoudig voorbeeld zijn snelheidsremmers op de weg. Je kunt daar niet anders dan vaart minderen. Dat is een stukje technologie in de weg; het is gebouwd, bedacht en gemaakt. Als je daar aan volle snelheid overheen rijdt, word je wel afgestraft. Dat is een manier waarop technologie ons reguleert. Of kijk eens naar bankjes in het park: heel vaak zijn dat geen grote banken waar je comfortabel op kunt liggen (bijvoorbeeld als je dakloos bent), maar zijn ze verdeeld in aparte zitjes. Zo worden sommige manieren van handelen ingeperkt en andere juist mogelijk gemaakt. Dat is wat technologie met ons doet.

00:02:06
Nu zitten we in een tijd waarin AI een grote impact heeft. Kijken jullie ook naar de manier waarop AI wordt opgezet en de impact die dat heeft op gebruikers? Of benaderen jullie het meer op een hoger, theoretisch niveau?

00:02:26
Beide. Soms heel concreet en soms ook meer conceptueel. Bijvoorbeeld hoe we handelen als we een smartphone in handen hebben. Er zit een stappenteller op en dan gaan we ineens onze stappen tellen. Ik was gisteren in een kinderspeeltuin en nam mijn telefoon mee terwijl ik met de kinderen speelde, om zo extra stappen te kunnen registreren. Zo zie je hoe ons handelen beïnvloed wordt. Sommige mensen willen per se hun doel van 10.000 stappen halen, ook al is die 10.000 stappen-regel maar heel beperkt wetenschappelijk onderbouwd. In de jaren 60 kwam er in Japan een stappenteller op de markt en het teken voor 10.000 leek op een poppetje, dus werd dat het streefgetal.

00:03:15
Overal hoor je die 10.000 stappen. Als ik wat uitzoom, zie ik dat dit een voorbeeld is van hoe technologie invloed heeft op de mens en de mens reguleert. Maar als wij technologie reguleren, doen we dat ook vanwege de impact die technologie op de mens heeft.

00:04:00
Als je kijkt naar technologieregulering in de afgelopen veertig jaar, zeker rond het gebruik van data, zie je bijvoorbeeld dat je toestemming moet geven om data te gebruiken. Denk aan de vraag of jouw data voor andere doeleinden gebruikt worden dan oorspronkelijk bedoeld. Ook gaat het over concurrentie en innovatie; sommige producten worden alleen voor de Europese of juist alleen voor de Amerikaanse markt ontwikkeld. De recente TikTok-discussie heeft bijvoorbeeld ook met concurrentiebeleid te maken.

00:04:45
Ik had onlangs nog gesprekken over de AI Act in Europa, waar ze proberen regels op te leggen die andere continenten wellicht moeten overnemen als zij hun producten hier willen gebruiken. Maar sommige mensen vrezen dat Europese bedrijven zo minder competitief worden.

Er bestaat inderdaad een risico dat je minder competitief wordt, maar het doel van regulering is juist om voorwaarden te stellen aan wat we doen. Europa probeert aandacht te hebben voor zaken als datacontrole en fairness, die je niet per se zou najagen als je alleen naar economische groei kijkt. Het kan gebeuren dat je technologie minder makkelijk in totalitaire staten kunt inzetten, maar wil je dat eigenlijk wel? Daarnaast is Europa met zijn vierhonderd miljoen inwoners nog altijd een aanzienlijke markt.

De European Health Data Space is daar een voorbeeld van: Europa wil publieke waarde creëren door data te delen en te gebruiken, al is er kritiek dat het vooral economische waarde betreft. Toch ontstaat er zo een nieuwe markt, met nieuwe rollen en types bedrijven.

00:07:28
Als ik het goed heb, heb je je doctoraatsonderzoek gedaan rond verzekeringen, data en technologie. Wat waren je bevindingen?

Ik deed mijn doctoraat aan de KU Leuven over verzekeringen en nieuwe vormen van data. In eerste instantie dachten we dat het zou gaan over genetische kennis, omdat dat veel tot de verbeelding spreekt. Maar rond 2014 zag je juist dat verzekeringsmaatschappijen vooral bezig waren met big data. Zij hadden het idee dat als ze maar genoeg data hadden, ze op een heel fijnmazige manier mensen konden categoriseren. Dat noemen ze soms een “segment of one”: geen risicopool met veel verschillende mensen die ongeveer op elkaar lijken, maar heel specifiek iedereen als individu bekijken.

Maar in de praktijk is dat niet haalbaar. Uiteindelijk heb je altijd groepen. Ten eerste zijn we als mensen minder uniek dan we denken; we kopen allemaal dezelfde meubels bij Ikea, bijvoorbeeld. Ten tweede kost het veel geld om alle informatie te verzamelen. En dan nog is het lastig om de risico’s echt op een puur individueel niveau te berekenen. Bij autoverzekeringen die rijgedrag meten, worden meestal een handvol factoren bekeken: hoe hard je remt of optrekt, hoe je door bochten gaat, waar je rijdt en op welk moment. Ook dan zie je vaak maar drie soorten bestuurders: goede, slechte of gemiddelde.

00:10:11
Dat is ook logisch, want je hebt misschien nog niet genoeg datapunten om mensen nog verder te segmenteren. Al kun je je voorstellen dat complexere modellen als Transformers in de toekomst misschien wél zeer specifieke categorieën kunnen creëren. Dan wordt de vraag wie aansprakelijk is voor de uitkomsten van zo’n “black box”.

Dat is inderdaad een probleem. In de verzekeringswereld heb je actuarissen, experts in het inschatten van risico’s, maar ook zij kunnen niet altijd alles uitleggen. Daarnaast is er de wetgever: als verzekeraars voor verschillende klanten verschillende premies hanteren, moeten ze uitleggen waarom. En er is anti-discriminatiewetgeving: mannen en vrouwen moeten dezelfde premie betalen, ook al maken vrouwen bijvoorbeeld minder ongelukken. Als het algoritme tóch “gender” gebruikt als proxy, zit je fout.

00:14:08
Ik moet denken aan een voorbeeld in de VS, waar software de strafmaat inschatte en bleek dat huidskleur een factor was. Afro-Amerikanen kregen hogere straffen dan blanken. Dat is pure discriminatie. Sommige mensen zeggen dan: “misschien is het gebaseerd op data”, maar het hangt ervan af welke data je gebruikt. Gebruik je opleidingsniveau, inkomen, buurt? Ook dat kan problematisch zijn, want buurt kan weer een proxy voor huidskleur zijn.

Bij dit soort AI ging het formeel alleen om een advies, maar dat wordt al snel door de rechter overgenomen: “De computer zegt het, dus het zal wel kloppen.” Dat is wat Virginia Eubanks in “Automating Inequality” beschrijft: in de Amerikaanse sociale zekerheid gaat men steeds vaker af op wat de computer zegt, in plaats van dat een ambtenaar een bepaalde discretionaire bevoegdheid uitoefent. Die menselijke inschatting mis je dan.

00:17:58
Het is een filosofische discussie of je alles kunt parametriseren en geen menselijke intuïtie meer nodig hebt. Nu accepteren we dat een mens fouten kan maken, maar van een computer verwachten we het perfecte algoritme. Ik ben benieuwd waar het naartoe gaat.

Toch zijn er ook nu al talloze voorbeelden van hoe we samen met technologie beslissingen nemen. Denk aan navigatiesystemen in de auto. Ze vertellen ons waar we naartoe moeten, en soms rijden we zelfs een eenrichtingsstraat in de verkeerde richting omdat de navigatie dat aangeeft.

In een operatiekamer heb je AI-toepassingen zoals een “cyber knife” voor kankerbehandeling, die behandelplannen suggereert. Dat is dan een samenwerking tussen de machine en medisch personeel, waarin de autonomie verdeeld is.

00:20:46
Absoluut. Je noemde ook het voorbeeld van de verzekeringen. Wat is concreet het effect van “goede” of “slechte” chauffeur genoemd worden?

In mijn onderzoek zag ik dat, bij een bepaalde polis, een goede chauffeur 30% premie terugkreeg, een gemiddelde chauffeur 10% en een slechte niets. Dat stimuleert mensen om hun rijgedrag aan te passen aan de specifieke punten die worden gemeten: hoe hard je remt of accelereert, enzovoort. Het meet niet of je voorrang geeft of andere verkeersregels respecteert. Het creëert dus een heel specifieke vorm van verantwoordelijkheid die deels door de meting zelf tot stand komt.

00:23:29
Zo kom je bij gamification, zoals met stappentellers. Als je 9.900 stappen hebt gezet, wil je er toch 10.000 halen. Ook hoor je wel kritiek dat we soms te veel meten en controleren.

“Als het niet in Strava staat, heeft de fietstocht niet plaatsgevonden,” is een grap die je wel eens hoort. Het gevaar is dat we sociaal gedrag bijna “robotiseren” door er data van te maken. Maar we moeten ook uitkijken dat we niet te nostalgisch doen; we kunnen de klok niet terugdraaien naar een wereld zonder technologie. Ik vind het interessant te zien hoe technologie onze rol en verantwoordelijkheden verandert. Zo kun je nu verantwoordelijk worden voor je eigen ziekte, omdat je je symptomen kunt meten.

Neem “experience sampling” in mentale gezondheidsapps, waarbij op meerdere momenten per dag wordt gevraagd hoe je je voelt. Dat levert misschien een rijker beeld op dan eens in de zoveel weken met een arts praten, maar je vraagt wel heel specifieke dingen (bijvoorbeeld of je buiten bent geweest). Dan kan een behandelaar zeggen: “Je bent maar twee keer gaan wandelen in twee weken, dat moet beter,” terwijl niet willen wandelen juist een symptoom van depressie kan zijn. Je loopt dan het risico dat je het feit dat iemand niet buitenkomt beoordeelt alsof het gedrag is dat men zelf moet veranderen, zonder echt te erkennen wat erachter zit.

00:26:16
Dat is een interessant punt. Door iets te meten, maak je het tot de verantwoordelijkheid van die persoon, terwijl het misschien een symptoom is.

Precies. Daar moeten we oog voor hebben. Er zijn verschillende groepen in de academische wereld: sommigen zijn heel enthousiast over innovatie en willen van alles maken, anderen zijn heel kritisch en roepen dat alles leidt tot meer surveillance. Er zit wel wat in die kritiek, maar soms herhalen ze al decennialang hetzelfde. Dan is er nog een derde groep (waar ik mezelf onder reken) die rekening houdt met de kritische vragen maar ook echt bekijkt hoe technologie in de praktijk wordt gebruikt en welke verantwoordelijkheid en rollen daaruit voortkomen.

00:27:54
Zou je met jouw inzichten iets willen veranderen aan hoe het nu gaat?

We hebben heel veel aandacht voor innovatie en technologische oplossingen—technological solutionism. Bijna elk maatschappelijk probleem zou met een app op te lossen zijn, lijkt het. Er is weinig aandacht voor de structuur erachter. En er zijn ook heel veel pilots en proeftuinen. Beleidsmakers kondigen die groots aan om te laten zien dat ze met innovatie bezig zijn, maar als zo’n pilot niet slaagt, is dat niet erg: het was maar een pilot. Er is altijd wel een succesverhaal te vinden als het politiek van pas komt, maar vaak is er weinig opvolging.

In mijn onderzoek kwam ik vaak “use cases” tegen, maar dat woord wil niet zeggen dat er echt iets gebruikt wordt. Er is een idee, de technologie is nog niet helemaal ontwikkeld, en ze is nog niet ingebed in een bestaande infrastructuur. Dan is er dus geen echte case van mensen die actief geholpen worden. Als onderzoeker is dat wel interessant om te bestuderen, maar het laat zien hoe iets soms al “oplossing” wordt genoemd voordat het probleem echt is gedefinieerd.

00:30:33
En zo ontstaat het fenomeen dat technologie een probleem oplost dat er misschien niet eens was, puur omdat het vanuit innovatieperspectief is bedacht. Dankjewel, Gert, voor dit superinteressante gesprek.

00:30:43
Graag gedaan. 

People on this episode