nlaic logo


 

Ethiek en verantwoordelijkheid

Dat is iets waar veel social media platforms mee worstelen. Merel Noorman (Tilburg University / JADS) vertelt hoe dat samenhangt met data science en ethiek.

Transcript:

Merel Noorman. Jij bent assistant  professor bij Tilburg University.   Jij gaat ons meenemen in de wereld van AI, in  relatie tot ethische en juridische aspecten. Eigenlijk vanaf het begin al, sinds de  naam kunstmatige intelligentie voor het   eerst werd gebruikt zijn er wel  mensen mee bezig geweest van: "Wat betekent dat nou eigenlijk voor  de maatschappij en voor de mensheid?" Dan kan je denken aan: "Hoe gaan we om met  privacy, met bescherming van gevoelige data?"   maar ook aan "Hoe zorgen we dat de voordelen  van deze technologie eerlijk verdeeld worden?" Dat iedereen de technologie ook kan gebruiken,   dat er niet gediscrimineerd  wordt door die technologieën,   en ook dat de verantwoordelijkheid voor deze  technologieën op een goede manier verdeeld wordt. Dat is een instituut waar de Tilburg  University ook aan verbonden is. Het is   een samenwerking tussen de provincie  Noord-Brabant, 's-Hertogenbosch,   de TU Eindhoven en Tilburg University. Ze doen  daar alles wat met data science te maken heeft: Onderwijs, onderzoek, ze bieden  bacheloropleidingen en masteropleidingen, maar ze   doen ook onderzoek naar alles rond data science.  Eén onderdeel daarvan is ook de juridische   aspecten en de ethische aspecten. Dat is iets  waar Tilburg University ook veel in samenwerkt. Nou, ik geef onder andere het vak data science  ethics. Een onderdeel daarvan is AI natuurlijk.   Dat geef ik aan bachelorstudenten. Dat vak  is gericht op met name wat technische dingen   maar ook entrepreneurship en ook de juridische  en maatschappelijke en ethische consequenties   van data science. In het vak dat ik geef  kijken we naar de bredere consequenties   van de technologieën die zij ontwikkelen en dan  kijken we bijvoorbeeld naar het modereren van   sociale media. Daar worden tegenwoordig  vaak ook AI algoritmen voor gebruikt. Om bijvoorbeeld hate speech te modereren  en soms ook gewoon er uit te halen. Dat kan je op verschillende  manieren doen en daar zal je   verschillende waardenconflicten in tegenkomen. Met waardeconflicten bedoel ik dan: Eén  van de basis rechten maar ook belangrijke   waarden van met name democratie is dat  we vrijheid van meningsuiting hebben. Maar dat kan ook in conflict komen met de  schade die je aanricht aan andere mensen. Als je dat gaat censureren, of modelleren,  dan kom je dus als snel in aanraking met   die fundamentele rechten. Dus je  moet dat op een goede manier doen   en met mijn studenten kijk ik er dan naar  hoe je kan proberen die waardeconflicten   in de technologie een beetje op te  vangen en in goede banen te leiden. Dat lijkt me inderdaad heel moeilijk. Een  script schrijven met woorden om te blokkeren,   dat is makkelijk. Maar bepalen welke woorden  wel en welke niet... dat is bijna niet te doen. Helemaal niet als je er ook nog bij  gaat bedenken dat die algoritmen   dus niet alleen in Nederland  werken maar over de hele wereld. En wat de één beledigend en schadelijk vind,   vind een ander niet beledigend  of schadelijk of "moet kunnen". Als je denkt aan satire  bijvoorbeeld, of parodieën,   in sommige landen zijn die helemaal niet  problematisch of moet dat juist gebeuren. Maar in andere landen kan dat oproepen tot geweld. Dus dat is een lastige afweging die je  nu moet maken en die je nu ook in de   wereld steeds meer aandacht ziet krijgen.  Bijvoorbeeld Facebook dat nu een soort   hogere raad heeft ingericht om te bepalen  welke berichten wel of niet mogen blijven. Ja dat kunnen ze niet meer  alleen technologisch oplossen   maar daar hebben ze ook mensen voor nodig. Nou goed om te horen in ieder  geval, want soms denk je wel eens:   "Nou het is een zooitje geworden,  daar komen we niet meer uit." Als ik jou goed beluister leren we van de fouten   en zoeken we nu naar manieren  om dat beter aan te pakken. Daarbij moet ik zeggen: "Als het gaat  over ethiek en AI, proberen we al eerder   in het proces na te denken over wat de  mogelijke consequenties kunnen zijn van   de technologieën die ze ontwikkelen, en hoe  die opgelost of geadresseerd kunnen worden,   en of die technologie überhaupt ontwikkeld moet  worden." Maar nu AI steeds meer gebruikt wordt,   en steeds wijder verspreid raakt, komen  we dingen tegen die we nog niet eerder   tegengekomen waren, waar nu toch echt dringend  oplossingen voor gevonden moeten worden. Zeker, het zijn soms ook 2 bloedgroepen. Aan de  ene kant heb je dus wat jij zo mooi verwoord:   privacy by design, een dataluw beleid.  Tegelijkertijd heb je de ontwikkelaars   of de commerciële partijen die  zeggen: "Meer data is wel beter,   want dan worden onze modellen accurater."  Zijn die twee met elkaar te rijmen? Ik denk het wel. Helemaal omdat ten  eerste de veronderstelling dat je   altijd meer data nodig hebt om betere  modellen te krijgen denk ik onjuist is. Deels is dat omdat meer data ook tot meer  ruis leidt en ook tot meer complexiteit   zodat je ook minder goed kan zien of die  modellen ook inderdaad juist zijn en of er   geen rare correlaties opgepikt worden  door de systemen. De andere reden is:   meer data kan ook meer risico opleveren. Met name  met de huidige wetgeving rondom dataprotectie. Daarnaast is het soms juist heel handig om minder  data te gebruiken om je modellen beter te maken en   bovendien laat je op die manier ook zien dat  je het welzijn van je klanten voorop stelt.   Dat is ook een manier om het vertrouwen van  de klant in je bedrijf enigszins te verhogen..

 

Tags

 

 VIDEO

Deze video wordt aangeboden door Brainport Eindhoven onder een Creative Commons-licentie.