ToeZine: De Ethische Data Assistent: hulp bij verantwoord omgaan met data
Data zijn volgens de onderzoekers bij de Utrecht Data School veel meer dan alleen maar kille techniek. De Ethische Data Assistent geeft toezichthouders binnen 3 uur inzicht in de ethische keuzes die zijn gemaakt. "Interessant voor dataprojecten die toezichthouders zelf ontwikkelen en voor die van ondertoezichtstaanden."
Lees het interview met Mirko Tobias Schäfer en Iris Muis van de Utrecht Data School (UDS) in ToeZine.
Wat is De Ethische Data Assistent?
“DEDA is een impact-assessment-tool voor dataprojecten. We zijn die in 2016 begonnen te ontwikkelen – in samenwerking met Gemeente Utrecht. Na een onderzoek van ongeveer anderhalf jaar namen we DEDA in 2017 in gebruik. De tool is een methode om teams die aan dataprojecten werken te laten praten over alle mogelijke ethische aspecten die bij hun projecten komen kijken. Het laat zien vanuit welke waarden je een dataproject opzet en welke acties nodig zijn om die waarden terug te laten komen in het dataproject. Vervolgens kan dat team bepalen of het ethisch verantwoord is om met een dataproject door te gaan. Of om te bekijken welke aanpassingen nodig zijn om het verantwoord te maken. DEDA verhoogt kortom het ethisch bewustzijn van mensen die met dataprojecten bezig zijn. Bovendien helpt ze de keuzes te documenteren die zij maken; een eis vanuit de privacywet AVG.”
Maar wacht even – data, dat zijn toch gewoon cijfers en gegevens? Hoezo komt daar ethiek bij kijken?
“Wij zien data als een sociaal-cultureel artefact (iets dat door mensen is gemaakt – red.). Net als de algoritmes die erop losgelaten worden. Je kunt technologie niet als neutraal beschouwen. Bij de ontwikkeling van een algoritme worden immers allerlei keuzes gemaakt die te maken hebben met de sociaal-culturele context. En dat geldt ook voor de inzet van dat algoritme. Stel: het is ontwikkeld om te voorkomen dat mensen publieke middelen misbruiken. De maatschappelijke waarde achter deze ontwikkeling is natuurlijk helemaal goed. Maar als dat algoritme vervolgens alleen wordt ingezet bij mensen in achterstandswijken, dan gaat er iets mis. ‘Zoeken naar fraudeurs’ wordt dan ‘zoeken naar stereotypen van fraudeurs’ – en dat maakt bepaalde groepen mensen bij voorbaat verdacht. DEDA laat het zien als er zo’n onethische verschuiving optreedt.”