Hoe verandert onze manier van werken?
Nadia geeft een mini-masterclass over hoe je nadenkt over (on)bedoelde gevolgen van AI.
Transcript:
Waar je ook rekening mee moet houden als ontwerper van AI systemen is dat de technologie zeker niet objectief is en eigenlijk nooit neutraal kan zijn. Als je dus niet bewust nadenkt over de waarden en normen die je embed in je systeem, dat er mogelijk waarden en normen in komen waar je niet achter staat als ontwerper of als organisatie. Dat kan op historische bias zijn binnen je data, maar ook bijvoorbeeld: 'Waar optimaal je je systeem voor?' Dus bijvoorbeeld een video streaming platform, die optimaliseren vaak voor kijktijd van de gebruiker. Terwijl als je daar dan kritisch in prikt, zullen we het allemaal eens zijn dat een mensenleven er niet beter op wordt van zoveel mogelijk kijktijd op een serie. Dus dat is iets waar je mogelijk frictie in ondervindt. En jouw rol als ontwerper is dan om daar een elegante middenweg of oplossing voor te vinden. Eén van de tools die ik zelf heel waardevol vind om als team door te denken wat mogelijk de impact is van je product of dienst, is het 'consequence wheel', of 'futures wheel'. Dat nodigt vooral uit om na te denken over de consequenties, ook negatief, wat vooral in een creatief team heel goed is om daar echt een moment voor te maken, omdat mensen het soms moeilijk vinden om de kritische noot te zijn. Het is heel simpel, je begint in het midden met wat je systeem is of de functie van je product of dienst. Dus heel specifiek. Daar ga je vervolgens een cirkel aan consequenties omheen bedenken. Dus in dit geval heb ik een recommender system en je kunt denken aan interacties als: 'Ik kom naar de streaming service en ik wil iets kijken maar ik weet nog niet wat.' of 'Ik kijk maar gewoon door want het recommender system die speelt automatisch dingen af die ik leuk vind, dus ik blijf gewoon kijken. Dus hier heb je nog best wel user interactions waar je waarschijnlijk bekend mee bent binnen je product team. Dan wordt het iets complexer, dan ga je naar de volgende ring, waar je deze doortrekt en het liefst ook nog opsplitst en nadenkt van: Oké, als ik dan altijd doorkijk omdat er autoplay is... Wat voor consequenties heeft dat dan voor mij als gebruiker of zelfs binnen de samenleving? Dus dat kan zijn van oké... Ik kijk gewoon heel veel. Ik zit heel veel tijd te kijken. Maar kan ook bijvoorbeeld zijn 'Ik kies zelden met veel intentie wat ik wil kijken. Ik ben volledig afhankelijk van het algoritme in de content die ik tot mij neem.' Dus hier ga je wat verder door. Dan ga je nog een keer, nog een ring... Die past niet helemaal op mijn whiteboard maar dat is oké. Die trek je nog verder door. En dan zeg je: 'Oké wat zijn daar dan de consequenties van?' Je kan hier ook denken aan verschillende lagen, bijvoorbeeld economisch, politiek, sociaal. Wat voor invloed kan het hebben op die verschillende facetten van de maatschappij. Dan kun je bijvoorbeeld zeggen: 'Oké als ik nooit met intentie kies wat ik wil kijken en ik kies gewoon wat het algoritme voor mij kiest, dan kom je sowieso in een filterbubbel, maar ook misschien in één nauwe stroom van informatie. Bijna een soort propaganda bijvoorbeeld. Je mag hier best wel dramatisch doen. Je mag hier best wel, bijna sci-fi, best wel negatief, best wel doomsday doen. Want vervolgens kijk je: 'Oké Wat is hiervan echt, en hoe kunnen we dat terugbrengen naar het product?' Dus hoe kunnen we bijvoorbeeld voorkomen dat iemand op een bepaalde manier wordt beïnvloed door dit systeem? Dus je gaat zo ver mogelijk naar buiten en dan breng je het weer terug naar je product of dienst, hoe je dat dan op een betere manier kan doen om dit te voorkomen of goed in te steken. Dat is een heel nuttige tool vind ik om met je team na te denken over wat mogelijk de consequenties zijn van je product of dienst..