Interview met data analist Jeroen Goudsmit (PwC)

In dit artikel het woord aan Jeroen Goudsmit. Hij bedacht en ontwikkelde het themablok van PwC over de relatie tussen onbewuste vooroordelen en kunstmatige intelligentie.

Waarom mag u dit themablok niet missen? Lees het volledige interview:

Inleiding

Artificial Intelligence (AI) is de intelligentie van machines, Machine Learning (ML) is een hulpmiddel in de zoektocht naar deze kunstmatige intelligentie. Machine Learning is een verzamelterm voor algoritmes die modellen opleveren afgestemd op trainingsdata. Zo “leren” computer algoritmes in feite van de gegeven input. De input komt doorgaans neer op metingen uit het verleden: historische data dus.

Met deze modellen kunnen praktische toepassingen worden ontwikkeld, bijvoorbeeld zelfrijdende voertuigen, audiovisuele dataverwerking (zoals captcha’s), gezichts- en stemherkenning bij videosurveillance, steeds slimmer wordende e-mail spamfilters of bijvoorbeeld sportanalyses.

PwC wil de relatie tussen implicit bias en kunstmatige intelligentie bespreekbaar maken, om zo verantwoord gebruik van kunstmatige intelligentie te bevorderen. Op deze manier moet voorkomen worden dat individuen of groepen mensen op een negatieve manier worden beïnvloed door kunstmatige intelligentie. Implicit bias is hier het onbewust toeschrijven van eigenschappen aan groepen mensen. Hierdoor worden allerlei soorten ongelijkheid versterkt. Toch biedt AI ook zeer veel mogelijkheden.

In de inleiding staat dat algoritmes gevoed worden met feitelijke historische gegevens. Komen deze feiten niet ook van mensen? En zijn ze dus wellicht bevooroordeeld? 

“Inderdaad! De zorgen zijn vooral rondom machine learning modellen. Deze worden geijkt op basis van historische gegevens. Hier hebben we direct last van het verleden: alle bias (ook wel vertekening genoemd) klinkt door in de gegevens waar deze modellen mee worden gemaakt. Als de algoritmes gecombineerd worden met vertekende historische gegevens en hier een model mee gemaakt wordt, kunnen er serieuze problemen ontstaan.

We willen het vooral over het algemene concept in brede zin hebben. De film “Bias” die we gaan tonen, stipt een aantal specifieke voorbeelden aan. Eigenlijk zijn het precies de voorbeelden die veel bedrijven ook tegen proberen te gaan met een sterk inclusiviteitsbeleid.”

 

Waarom zijn biases een probleem? Het is toch menselijk?

“Ze hinderen ons bij het maken van de juiste beslissing. Biases beïnvloeden ons zonder dat we het bewust doorhebben. Hierdoor doen we dingen waarvan we, als we er rustig op zouden reflecteren, verbaasd zouden zijn dat we ze doen. Een groot risico zit in het versterken van onze bias met AI modellen die enkel voortbouwen op hoe iets “altijd al geweest is”. Het verleden is geen fantastische plek waarin alles al goed was – als dat wel zo was, hadden we als wereld geen sustainable development goals (SDG’s) hoeven stellen. Een bias versterkt bestaande ongelijkheden en blokkeert ons bijvoorbeeld in het verwezenlijken van SDG #5 (gendergelijkheid) en SDG #10 (inkomensongelijkheid verminderen) en SDG#16 (vrede, justitie en sterke publieke diensten).”

“Wanneer we AI laten leren van het verleden, in plaats van het verleden te imiteren, dan kunnen we echt vooruit.”

Kan AI ons ook helpen om biassen te voorkomen?

“Ja, door het op de juiste manier in te zetten. Kunstmatige intelligentie houdt ons een spiegel voor. Zo kan het ons helpen te reflecteren op wat er gebeurd is in het verleden, niet om blind het verleden te projecteren op de toekomst. Dit zien we nu al als bijeffect van plekken waar AI ingezet is. Doordat de modellen zo ontzettend verkeerd liepen, door bijvoorbeeld te discrimineren op basis van geslacht, zijn we als maatschappij hier extra alert op geworden.”

 

“Wij hopen dat de discussie een stap verder gaat en men dit probleem bij de wortel gaat aanpakken: niet de spiegel, maar degene die er in kijkt.” 

 

PwC laat de documentaire “Bias” (2018) zien; hoe ziet jullie filmblok eruit?

Na een inleiding gaan we de film bekijken. De film maakt een belangrijk probleem bespreekbaar. Bias beïnvloedt ons allemaal. Dat we deze bias hebben is niet onze fout; het komt voort uit een combinatie van omgeving en hoe mensen in elkaar zitten. Na de film kan het publiek input leveren aan de paneldiscussie. Het panel bestaat uit een mix van mensen die zich bezighouden met inclusiviteit, met risicomanagement en met AI-technieken, want de drie interessante perspectieven zijn volgens mij: 1. Hoe voorkomen we op de klassieke manier biassen aan de menskant; 2. Hoe ben je vanuit risicomanagement bezig om te zorgen dat je hier geen last van gaat hebben en 3. Hoe zorgen mensen die AI-techniek ontwikkelen ervoor dat dit probleem geminimaliseerd wordt?

We verwachten, gevoed door de vragen en suggesties vanuit het publiek, een interessante discussie tussen en met de panelleden.”

Link naar trailer: https://vimeo.com/265863934

Door Rogier Nebbeling BSc RSE

3 & 4 okt
Wij gebruiken cookies om het gebruik van de website te analyseren en het gebruiksgemak te verbeteren. Meer informatie