nlaic logo


 

Data, Modellen en Onbedoelde Consequenties

Transcript:

1 Dus die ambtenaar, laten we hem 3.0 noemen... die snapt dat de loketten zijn vervangen door apps of interfaces... en hij bewaakt dat het allemaal nog op een menselijke manier gebeurt... en dat er geen mensen worden geplet tussen digitale walsen. Maar hoe weet je dat dat gebeurt? Want dat gebeurt ook weer een paar schermen verder... en mensen stoppen gewoon omdat ze het zat zijn online formulieren in te vullen. MARLIES VAN ECK: Dat is een heel groot probleem. Als je vast komt te zitten... in die systemen, kost het je als burger heel veel tijd om erachter te komen... waar de fout eigenlijk zit. Je schaamt je misschien ook. Ja. Je denkt ook als eerste: ik heb waarschijnlijk iets verkeerd ingevuld. En dat kan om hele simpele dingen gaan. Een mevrouw vertelde... dat ze verhuisd was in Amsterdam, in dezelfde straat... en na anderhalf jaar bleek dat ze allerlei belangrijke post niet kreeg... en de vaccinatie voor de kinderen niet, en de schooluitnodiging niet... en dan kost het je nog een half jaar om erachter te komen waar de fout zit. En al die tijd denk je: ik zal wel iets verkeerd hebben ingevuld... maar het was gewoon een overschrijving van het ene systeem naar het andere... die mis was gegaan. Dus het kost heel veel tijd om daarachter te komen... en ik vind het ook geen goede zaak dat we dat bij de burger hebben neergelegd. Dus dat die maar veel energie moet hebben... om tegen die overheid te blijven aan beuken, van: het klopt niet. Je zou nog kunnen zeggen dat dit de gevolgen zijn... van de eerste digitaliseringsgolf. De tweede golf... namelijk dat we meer met data kunnen door middel van machine learning... Dit is een cursus die gaat over dat soort modellen maken... en wat de impact daarvan is. Hoe denk jij dat de ambtenaar daarmee te maken gaat krijgen... dat algoritmen inderdaad door hem worden ingezet... om heel snel in een keer 130.000 dossiers te bekijken, bijvoorbeeld? Ik denk dat het mooi zou zijn als we die zouden kunnen inzetten... om te zien waar de fouten zitten. Dus je hebt de errors, maar je hebt ook known errors... Maar dat je ook die systemen inzet om... Die grote basisautomatisering moet blijven bestaan. Dat is de motor waarop alles draait. Maar je zou die machine learning kunnen inzetten... om te kijken waar het fout gaat. Wat constateert zo'n afdeling bezwaar? Misschien over verschillende plekken in het land, bij een nationaal werkend orgaan... dezelfde problemen. En die kan het heel snel achterhalen... en meteen terugkoppelen aan degenen die aan het programmeren zijn. En daar zie ik heel veel toegevoegde waarde. Ook in herkennen in welke gevallen mensen tussen wal en schip vallen. Dat herkennen, daar kan die machine learning heel goed bij werken. MAN: Juist. Het opsporen van anomalies. MARLIES: Ja. En dan heb ik ook gehoord dat, doordat er steeds meer data beschikbaar komt... en die modellen daarvoor worden ingezet... dat er soms een bepaalde bias, een vooroordeel, in die systemen zit. Kan je daar een voorbeeld van geven? Het voorbeeld dat we tot nu toe vaak gebruiken... is dat er over uitkeringsgerechtigde mensen... veel meer gegevens in databases zitten... dan over mensen die iets meer verdienen. Die dus ook niet afhankelijk zijn van een uitkering. Dus de bias zit eigenlijk al als je zegt: We gaan fraude opsporen... en je pakt dat bestand als uitgangspunt. Dan ben je dus alleen die groep in Nederland aan het controleren. Die zijn oververtegenwoordigd... In de databases... want de rest zit daar niet in. Dus daar zit al een bias in, vanwege het feit dat je die mensen in je database hebt. En daar zijn voorbeelden van, vooral uit Amerika... waar die groep extra hard geraakt wordt doordat ze oververtegenwoordigd zijn... en de rest buiten beschouwing wordt gelaten. Dat is al een bias. Wat je ook kan hebben, is dat je een systeem bouwt als overheid... en dat je zegt: Je hebt een BSN nodig om een aanvraag in te dienen. Iedereen zal denken: goed idee. Een BSN, dat heeft iedereen. Maar dat heeft dus niet iedereen. Je krijgt dat ook pas na verloop van tijd. Ondertussen hebben we mooie internationale rechtelijke bepalingen, waarin staat... dat je hier in Nederland als je grote problemen hebt... recht hebt op bepaalde voorzieningen. Dus het recht is dan heel mooi geregeld... maar het systeem is dwingend, want dat vraagt een BSN. En dan kan je dus niet eens een aanvraag indienen. Dus jouw basale recht om een aanvraag in te dienen... en dan krijg je waarschijnlijk nee te horen, maar kan je naar een rechter... dat basale recht is je al afgenomen. Waarschijnlijk heeft niemand dat bedoeld. Dat is een bias die er totaal onverwacht in is gekomen... doordat je aan de techniek denkt. Ja. Dus dat vergroot de ongelijkheid. De achterstand van mensen die er al een hadden, wordt alleen maar groter. Hoe kunnen we dat voorkomen? Dat is heel moeilijk. Het is belangrijk dat we ons daarvan bewust zijn. Dat we ook steeds weten van: waarom kijken we naar deze data. Iemand zei tegen mij over man/vrouw, bijvoorbeeld... waarom hebben we in de overheidsdatabases staan... of iemand een man is of een vrouw? Dat komt van heel erg lang geleden. Toen een vrouw handelingsonbekwaam was op het moment dat ze ging trouwen. Juridisch gezien is er bijna geen enkele reden meer... en bijvoorbeeld fiscaal ook niet, om dat verschil op te nemen in je databases. Vervolgens vinden de data scientists het ontzettend interessant... om te kijken hoe vrouwen zich gedragen ten opzichte van mannen. Maar ook daarvan moet je je afvragen: ben ik nu aan het discrimineren? Mag dit eigenlijk wel? En dat is heel lastig uit te leggen aan wiskundigen... en mensen die zeggen: Ik zie een verschil in het gedrag van mannen en vrouwen... dus ik wil daar ook mijn modellen op maken. En ik zeg dan als jurist: Maar jij mag helemaal dat onderscheid niet maken. En hoe reageren ze dan? Ja. Boos. Ja. Dat zijn hele moeilijke gesprekken. En ik geef als voorbeeld vaak de autoverzekering. Vroeger was het zo dat je als man... een hogere premie automatisch betaalde dan de vrouwen... omdat vrouwen gewoon ontzettend goed kunnen autorijden... geen ongelukken maken en daardoor heel weinig premie hoefden te betalen. En die mannen zijn naar het Europees Hof gegaan en die zeiden: Dit is oneerlijk. Ik ben weliswaar een man, maar ik rijd ook supervoorzichtig... dus mijn premie moet ook omlaag. En ze hebben gelijk gekregen. Dus je kan ook kijken naar gedrag, in plaats van per se dat ene labeltje..