Ethiek en verantwoordelijkheid
Dat is iets waar veel social media platforms mee worstelen. Merel Noorman (Tilburg University / JADS) vertelt hoe dat samenhangt met data science en ethiek.
Transcript:
Merel Noorman. Jij bent assistant professor bij Tilburg University. Jij gaat ons meenemen in de wereld van AI, in relatie tot ethische en juridische aspecten. Eigenlijk vanaf het begin al, sinds de naam kunstmatige intelligentie voor het eerst werd gebruikt zijn er wel mensen mee bezig geweest van: "Wat betekent dat nou eigenlijk voor de maatschappij en voor de mensheid?" Dan kan je denken aan: "Hoe gaan we om met privacy, met bescherming van gevoelige data?" maar ook aan "Hoe zorgen we dat de voordelen van deze technologie eerlijk verdeeld worden?" Dat iedereen de technologie ook kan gebruiken, dat er niet gediscrimineerd wordt door die technologieën, en ook dat de verantwoordelijkheid voor deze technologieën op een goede manier verdeeld wordt. Dat is een instituut waar de Tilburg University ook aan verbonden is. Het is een samenwerking tussen de provincie Noord-Brabant, 's-Hertogenbosch, de TU Eindhoven en Tilburg University. Ze doen daar alles wat met data science te maken heeft: Onderwijs, onderzoek, ze bieden bacheloropleidingen en masteropleidingen, maar ze doen ook onderzoek naar alles rond data science. Eén onderdeel daarvan is ook de juridische aspecten en de ethische aspecten. Dat is iets waar Tilburg University ook veel in samenwerkt. Nou, ik geef onder andere het vak data science ethics. Een onderdeel daarvan is AI natuurlijk. Dat geef ik aan bachelorstudenten. Dat vak is gericht op met name wat technische dingen maar ook entrepreneurship en ook de juridische en maatschappelijke en ethische consequenties van data science. In het vak dat ik geef kijken we naar de bredere consequenties van de technologieën die zij ontwikkelen en dan kijken we bijvoorbeeld naar het modereren van sociale media. Daar worden tegenwoordig vaak ook AI algoritmen voor gebruikt. Om bijvoorbeeld hate speech te modereren en soms ook gewoon er uit te halen. Dat kan je op verschillende manieren doen en daar zal je verschillende waardenconflicten in tegenkomen. Met waardeconflicten bedoel ik dan: Eén van de basis rechten maar ook belangrijke waarden van met name democratie is dat we vrijheid van meningsuiting hebben. Maar dat kan ook in conflict komen met de schade die je aanricht aan andere mensen. Als je dat gaat censureren, of modelleren, dan kom je dus als snel in aanraking met die fundamentele rechten. Dus je moet dat op een goede manier doen en met mijn studenten kijk ik er dan naar hoe je kan proberen die waardeconflicten in de technologie een beetje op te vangen en in goede banen te leiden. Dat lijkt me inderdaad heel moeilijk. Een script schrijven met woorden om te blokkeren, dat is makkelijk. Maar bepalen welke woorden wel en welke niet... dat is bijna niet te doen. Helemaal niet als je er ook nog bij gaat bedenken dat die algoritmen dus niet alleen in Nederland werken maar over de hele wereld. En wat de één beledigend en schadelijk vind, vind een ander niet beledigend of schadelijk of "moet kunnen". Als je denkt aan satire bijvoorbeeld, of parodieën, in sommige landen zijn die helemaal niet problematisch of moet dat juist gebeuren. Maar in andere landen kan dat oproepen tot geweld. Dus dat is een lastige afweging die je nu moet maken en die je nu ook in de wereld steeds meer aandacht ziet krijgen. Bijvoorbeeld Facebook dat nu een soort hogere raad heeft ingericht om te bepalen welke berichten wel of niet mogen blijven. Ja dat kunnen ze niet meer alleen technologisch oplossen maar daar hebben ze ook mensen voor nodig. Nou goed om te horen in ieder geval, want soms denk je wel eens: "Nou het is een zooitje geworden, daar komen we niet meer uit." Als ik jou goed beluister leren we van de fouten en zoeken we nu naar manieren om dat beter aan te pakken. Daarbij moet ik zeggen: "Als het gaat over ethiek en AI, proberen we al eerder in het proces na te denken over wat de mogelijke consequenties kunnen zijn van de technologieën die ze ontwikkelen, en hoe die opgelost of geadresseerd kunnen worden, en of die technologie überhaupt ontwikkeld moet worden." Maar nu AI steeds meer gebruikt wordt, en steeds wijder verspreid raakt, komen we dingen tegen die we nog niet eerder tegengekomen waren, waar nu toch echt dringend oplossingen voor gevonden moeten worden. Zeker, het zijn soms ook 2 bloedgroepen. Aan de ene kant heb je dus wat jij zo mooi verwoord: privacy by design, een dataluw beleid. Tegelijkertijd heb je de ontwikkelaars of de commerciële partijen die zeggen: "Meer data is wel beter, want dan worden onze modellen accurater." Zijn die twee met elkaar te rijmen? Ik denk het wel. Helemaal omdat ten eerste de veronderstelling dat je altijd meer data nodig hebt om betere modellen te krijgen denk ik onjuist is. Deels is dat omdat meer data ook tot meer ruis leidt en ook tot meer complexiteit zodat je ook minder goed kan zien of die modellen ook inderdaad juist zijn en of er geen rare correlaties opgepikt worden door de systemen. De andere reden is: meer data kan ook meer risico opleveren. Met name met de huidige wetgeving rondom dataprotectie. Daarnaast is het soms juist heel handig om minder data te gebruiken om je modellen beter te maken en bovendien laat je op die manier ook zien dat je het welzijn van je klanten voorop stelt. Dat is ook een manier om het vertrouwen van de klant in je bedrijf enigszins te verhogen..