nlaic logo


 

Ontwerpen met AI

In dit geval spreken we Nadia op kantoor, in Amsterdam bij DEPT.

Transcript:

Ik ben Nadia Piet. Ik mijn founder van AIx Design. Dat is een community voor mensen  in de intersectie tussen design   of creatieve disciplines en AI  of machine learning en data. Daarnaast ben ik ook head of creative  technology bij TED sinds kort,  om hier ook te kijken hoe we met  nieuwe opkomende technologieën   vanuit een creatief standpunt werk kunnen doen. Daarvoor ben ik eigenlijk  altijd freelancer geweest   en heb ik daar heel veel leuke dingen kunnen doen. Mensgerichte AI betekent voor mij kijken  naar de impact van AI op de gebruiker,   maar ook de samenleving buiten  je directe gebruiker om. Vanuit de geschiedenis is het gewoon   een technologische studie en  technologische ontwikkeling. Dat merk je dus ook in het vakgebied  en waar de gesprekken over gaan  en naarmate we dit ook echt gaan implementeren  in eigenlijk alle facetten van ons leven,  wordt het steeds belangrijker dat we ook  nadenken over de interactie en de impact ervan. Niet alleen 'werkt het model?' maar 'Hoe  beïnvloedt dit iemand zijn bestaan eigenlijk?' Veel mensen zien AI nog als iets van de toekomst. Het zal zeker groeien maar er  is al super veel mogelijk nu. Binnen DEPT hebben we twee  projecten die ik zelf heel leuk en interessant vind  omdat ze nieuwe  interactiemogelijkheden bewerkstelligen. In het verleden hebben we natuurlijk  altijd met de computer moeten communiceren  of door programmeren met code, of door de muis en toetsenbord. Nou ja, recenter dan door je touchscreen. Maar nu met AI kun je ook meer dit  inbedden zeg maar in de wereld. Twee voorbeelden, eentje is Fingerspelling, dat is  een manier om Amerikaanse gebarentaal te leren,  waarbij het systeem zeg maar je handpalm  en de locaties van je vingers herkent,  en je op die manier eigenlijk  kunt leren spellen in gebarentaal. In het verleden was het dan mogelijk  geweest om een plaatje te laten zien van je hand   maar niet persé om ook te  kijken of je dat op de juiste manier doet. Dus je kunt nu je lichaam gewoon op een directe  manier gebruiken om met het systeem om te gaan. Je kunt dan ook bedenken dat  je dan met bepaalde commands   bijvoorbeeld apparaten in je omgeving bedient. Zoals gesture based interfaces. Dat vind ik zelf erg  interessant. Dus met het lichaam. Een ander voorbeeld wat we hebben is Wongle. Dat is meer een spelletje waarmee je een letter krijgt  en dan een voorwerp moet  zoeken dat begint met die letter. Dat is nu in het Engels,  dus voornamelijk voor mensen die  bijvoorbeeld Engels aan het leren zijn. Maar je kunt ook bedenken dat als je  bijvoorbeeld Grieks aan het leren bent,  dat je dan een eerste letter  krijgt en dan op zoek moet. Dus dan ben je op een embedded manier  met je omgeving taal aan het leren. Dat is dan gebaseerd op object recognition, dus beeldherkenning   en voorwerpherkenning van de machine. Dit zijn twee voorbeelden die  we binnen DEPT hebben gedaan   vanuit het Hello Monday team, wat de nieuwe  interactiemogelijkheden een beetje laat zien. Maar dit is nog maar een begin,  en er is vast heel veel mogelijk  wat we nog niet hebben gedaan..