nlaic logo


 

Hoe verandert onze manier van werken?

Nadia geeft een mini-masterclass over hoe je nadenkt over (on)bedoelde gevolgen van AI.

Transcript:

Waar je ook rekening mee moet houden  als ontwerper van AI systemen is dat   de technologie zeker niet objectief is  en eigenlijk nooit neutraal kan zijn. Als je dus niet bewust nadenkt over de  waarden en normen die je embed in je systeem,  dat er mogelijk waarden en normen in komen   waar je niet achter staat als  ontwerper of als organisatie. Dat kan op historische bias zijn binnen je data,  maar ook bijvoorbeeld: 'Waar  optimaal je je systeem voor?' Dus bijvoorbeeld een video streaming platform,  die optimaliseren vaak voor  kijktijd van de gebruiker. Terwijl als je daar dan kritisch in prikt, zullen we het allemaal eens zijn dat   een mensenleven er niet beter op wordt van zoveel mogelijk kijktijd op een serie. Dus dat is iets waar je  mogelijk frictie in ondervindt. En jouw rol als ontwerper is dan om daar een  elegante middenweg of oplossing voor te vinden. Eén van de tools die ik zelf heel waardevol vind om als team door te denken wat mogelijk   de impact is van je product of dienst, is het 'consequence wheel', of 'futures wheel'. Dat nodigt vooral uit om na te denken  over de consequenties, ook negatief,  wat vooral in een creatief team heel goed  is om daar echt een moment voor te maken,  omdat mensen het soms moeilijk  vinden om de kritische noot te zijn. Het is heel simpel,  je begint in het midden met wat je systeem is of de functie van je product of dienst. Dus heel specifiek. Daar ga je vervolgens een cirkel  aan consequenties omheen bedenken. Dus in dit geval heb ik een recommender  system en je kunt denken aan interacties als:  'Ik kom naar de streaming service en ik  wil iets kijken maar ik weet nog niet wat.'  of 'Ik kijk maar gewoon door want  het recommender system die speelt   automatisch dingen af die ik leuk  vind, dus ik blijf gewoon kijken. Dus hier heb je nog best wel user interactions   waar je waarschijnlijk bekend  mee bent binnen je product team. Dan wordt het iets complexer, dan ga je naar de volgende ring,  waar je deze doortrekt en het liefst  ook nog opsplitst en nadenkt van:  Oké, als ik dan altijd doorkijk  omdat er autoplay is...  Wat voor consequenties heeft dat dan voor mij  als gebruiker of zelfs binnen de samenleving? Dus dat kan zijn van oké...  Ik kijk gewoon heel veel.  Ik zit heel veel tijd te kijken. Maar kan ook bijvoorbeeld zijn  'Ik kies zelden met veel intentie  wat ik wil kijken. Ik ben volledig   afhankelijk van het algoritme in  de content die ik tot mij neem.' Dus hier ga je wat verder door. Dan ga je nog een keer, nog een ring...  Die past niet helemaal op mijn  whiteboard maar dat is oké. Die trek je nog verder door. En dan zeg je: 'Oké wat zijn daar dan de consequenties van?' Je kan hier ook denken aan verschillende lagen, bijvoorbeeld economisch, politiek, sociaal. Wat voor invloed kan het hebben op die  verschillende facetten van de maatschappij. Dan kun je bijvoorbeeld zeggen: 'Oké als ik  nooit met intentie kies wat ik wil kijken en ik kies gewoon wat het  algoritme voor mij kiest,  dan kom je sowieso in een filterbubbel, maar ook  misschien in één nauwe stroom van informatie.  Bijna een soort propaganda bijvoorbeeld. Je mag hier best wel dramatisch doen. Je mag hier best wel, bijna  sci-fi, best wel negatief,  best wel doomsday doen. Want vervolgens kijk je:  'Oké Wat is hiervan echt, en hoe kunnen  we dat terugbrengen naar het product?' Dus hoe kunnen we bijvoorbeeld voorkomen  dat iemand op een bepaalde manier  wordt beïnvloed door dit systeem? Dus je gaat zo ver mogelijk naar buiten en dan  breng je het weer terug naar je product of dienst,  hoe je dat dan op een betere manier kan doen  om dit te voorkomen of goed in te steken. Dat is een heel nuttige tool vind  ik om met je team na te denken over   wat mogelijk de consequenties  zijn van je product of dienst..

 

Tags

 

 VIDEO

Deze video wordt aangeboden door Nederlandse AI Coalitie onder een Creative Commons-licentie.