Blog over editie: Artificial Intelligence: maar nu concreet!

Maandag 4 december werd de 52ste editie van SMC050 gehouden. Het thema van de avond was Artifical Intellegence maar nu concreet. Het was een avond die een duidelijk beeld schetste van de mogelijkheden van AI vandaag de dag. Er waren verschillende sprekers die een inkijk gaven hoe zij AI toepassen, de mogelijkheden, de beperkingen en de visie op de toekomst.

 

De avond werd afgetrapt door Jasper Wognum en Maarten Stol van Braincreators. Ten tijde van het social media platform Hyves was Jasper al bezig met het filteren van pornografische afbeeldingen in de gemaakte krabbels door middel van beeldherkenning. Deze kennis heeft hij vervolgens door vertaald naar de kleding industrie. Hierbij werd kleding die gedragen werd door VIPS geanalyseerd om vervolgens vergelijkbare kledingproducten aan te bieden.

 

AI geschiedenis

AI is niet nieuw. De mechanische eend van Jacques de Vaucanson wordt gezien als één van de eerste toepassingen van AI. De Vaucaonson creëerde in 1739 een magische eend die in staat was om te drinken, te eten, te verteren en zelf te poepen. Rond 1954 was daar de eerste elektronische rekenmachine die groter was dan menig desktop computer vandaag de dag. In 1988 versloeg de schaakcomputer MackHack VI de grootmeester Bent Larsen in een schaaktoernooi. De schaakcomputer die de grootmeester versloeg was getraind om de schaker te verslaan en niet zozeer om een willekeurige speler te verslaan met schaken. In de periode van 1950 tot 1980 was de tijd van regel gebaseerde systemen A => (B or C) B=> (D and E) C => (not F). Dus gebaseerd op voornamelijk if than else regels. Daarna kwam het heuristieke systeem. Bijvoorbeeld bij de schaakcomputer werden er waardes toegekend aan de posities op het bord. De regels werden nog steeds bedacht door de mens voor de computer.

“AI is whatever hasn’t been done yet.” – Larry Tesler

In de jaren tachtig ging het meer om machine learning. Het leren uit data. Denk hierbij aan spamfilters in je mailbox. In 1990 kwamen de eerste computergames met AI gestuurde tegenstanders. In 2000 was daar het GPS navigatie systeem die ons een file kon laten ontwijken. En nu… zelfrijdende auto’s, robots, beeldherkening, analyses….

 

Tegenwoordig zitten we in de deep learning ‘hype’. Deep learning is een diep neurale netwerk van meerdere lagen. Door de grote aantal lagen zijn complexe transformaties mogelijk. Deep learning wordt nu gebruikt voor o.a. het identificeren van patroonherkenning. Tegenwoordig worden de heuristike modellen dus door de computer zelf bedacht. Het neurale netwerk kan zelf waarde toekennen aan een gedeelte van een afbeelding of de data die relevant is.

Hierbij wordt onderscheid gemaakt in supervised en unsupervised learning. Supervised learning is het gebruiken van gelabelde data. De AI heeft labels nodig voor herkenning. Het labelen (anoteren) is nog steeds mensenwerk. De AI kan van de gelabelde informatie leren en zorgen voor een voorspelling. Zonder gelabelde data heb je niets aan je data. Unsupervised learning gaat om het leren door de AI van patronen door datasets in te delen in groepen. Bijvoorbeeld het verschil tussen honden en katten te herkennen of een tevreden of ontevreden klant.

 

Mythes rond AI

Maarten van Stol zorgde deze avond voor het ontkrachten van een aantal mythes rond AI. Zo wordt er beweerd dat je AI kan kopen. Dit is niet waar volgens Maarten. AI moet toepassingsgericht worden gemaakt en kan je dus niet kant en klaar aanschaffen. Er moet vooral worden gekeken naar de beschikbare datasets. Een andere mythe die Maarten ontkrachtte was dat AI vergelijkbaar is met menselijke intelligentie. Het zelf leren aspect van machine learning leert op een compleet andere manier dan wij. Wij hebben bijvoorbeeld drie afbeeldingen nodig om een bepaalde vissoort te herkennen. AI heeft er duizenden afbeeldingen voor nodig. Een andere belangrijke mythe die Maarten de wereld uit wil helpen is dat AI helemaal zelf leert. Er zit nog veel werk in het voorbereiden, schoonmaken, selecteren en in het vinden van de juiste algoritme die past bij de use case van de klant.

 

Use Cases

De AI die braincreators gebruikt moet worden gezien als een toolbox waar verschillende algoritmes in zitten patroonherkenning, image classefiers, datamining. Het gaat vaak om het vinden van de juiste match van de toolbox en de vraag die de klant heeft. Wat voor toepassingen wordt AI nu gebruikt? Dit kan op verschillende manieren. Afhankelijk van de toepassing wordt uit de toolbox van Braincreators het juiste algoritme gekozen. Voorbeelden van use cases zijn een AI voor tekstsegmentatie. Het analyseren van wetenschappelijke of juridische artikelen. Het automatisch toekennen van keywords bij foto’s op een stockfoto website of het analyseren van constructiefouten in een metaalfabriek. Ook audioanalyse waarbij geluisterd wordt door de AI naar de tekst, snelheid en onderwerp van het audiobestand om deze te classificeren. Maar het werkt niet met alles. Soms duurt het te lang voordat een toepassing werkt en er voldoende informatie is. Het belangrijkste voor een AI is de kwaliteit van de dataset om goed te kunnen werken.

 

Daarna was het de beurt aan Antje Meindersma van Alledaags waarbij nog meer use cases worden behandeld. Haar advies was ‘begin simpel’. Ook zonder data en geld kan je beginnen met AI. Het gaat met name om het goed inrichten van de data op de juiste manier.

 

Jean Paul van Oosten van Target-holding liet ons nog meer mogelijkheden van AI ontdekken. Zoals het modereren van opmerkingen onder artikelen, het registeren van muziekhits, peer reviewers zoeken voor wetenschappelijke artikelen. Maar ook predictive maintenance. Het voorspellen wanneer een machine in een fabriek onderhoud nodig heeft of het voorspellen van energieverbruik in huishoudens. Hij ging daarna nog wat dieper in een HR systeem waarbij een AI zorgt voor vacature matching. Grote bedrijven krijgen honderden aanmeldingen binnen. Hoe krijg je daar de beste kandidaat uit? Bij de vacature matching wordt veel gebruik gemaakt van keywords die beschikbaar zijn in een CV. Het probleem zit vooral in de context van de keywords. Sommige baanfuncties gaan schuil onder verschillende namen.

 

Neem een Online Marketing Specialist. Die kan je ook vinden onder de zoekwoorden Online Marketeer, Online Specialist of Internet Markteer. Daarnaast wil men ook ongestructureerde tekst gebruiken. Hiervoor gebruiken ze door Google ontwikkeld Word2vec. Dit model leert context te herkennen uit heel veel verschillende teksten. Hierbij wordt er waarde toegekend aan een woord. Zo wordt in onderstaande afbeelding de vrouwelijk variant van koning berekend.

 

 

De vacature matching brengt ook weer andere uitdagingen met zicht mee. Tegenwoordig zijn CV’s erg grafisch ontwikkeld. Maar ook tegenstellingen. Denk hierbij aan opleidingsniveau. Iemand met een MBO opleiding zal de dezelfde woorden gebruiken voor het behalen van een diploma als iemand die een diploma heeft gehaald op WO niveau. Beiden bezitten namelijk een diploma.

 

Als laatste was Bastiaan Zuidema van Dataprovider aan het woord. Een startup uit Groningen. Dataprovider is gespecialiseerd in het indexeren van het internet en het structureren van de data. Op een website staat veel interessante informatie. Bijvoorbeeld de locatie, adresgegevens, BTW nummers, KVK nummers. Er worden zo’n 150 variabelen gecontroleerd op een website. Deze variabelen worden vervolgens weer gebruikt om verticale datasets te maken. Dit houdt in dat een leverancier voor restaurants direct een overzicht kan krijgen van alle beschikbare restaurants in Groningen in een overzichtelijk tabel. Dit is in Google niet mogelijk. Daarnaast kunnen er statistieken mee worden gecreëerd. Dataprovider gebruikt machine learning om o.a. e-commerce websites te herkennen. Voorheen werd gedacht dat elke website met een betaalmethode een e-commerce website was. Dit is niet het geval. Ook websites die afhankelijk zijn van bijvoorbeeld sponsering hebben een betaalmethode knop op de website. Hierdoor werden er websites verkeerd geïndexeerd. Daarom is er gekozen voor machine learning om deze website goed te labelen. Vervolgens wordt er getraind met de gelabelde data en de features en wordt er een statistisch model van gemaakt.

 

Het werd mij die avond duidelijk dat AI veel mogelijkheden biedt maar wij nog ver weg zijn van een gelijkwaardig denkend systeem. Ontwikkelingen gaan snel en toepassingen straks eindeloos. Het belangrijkste is de dataset. Een goeie dataset is goud waard. Ben jij al begonnen met verzamelen van data?

 

Wil je meer informatie over chatbots, virtuele assistenten en kunstmatige intelligentie bestel dan het nieuwe boek van Jarno Duursma De digitale butler – kansen en bedreigingen van kunstmatige intelligentie.

 

Door Jaap Elzes van Radyus