Machine vision

Machine vision

  • Olivier Algoet
    • Olivier Algoet
    • 07/10/2021
  • De afgelopen jaren zijn we er meer en meer van overtuigd dat er weinig is wat machines niet voor ons kunnen doen. Toch zijn er handelingen die mensen elke dag doen die voor een machine een behoorlijke uitdaging vormen. Case in point: het visueel herkennen van items. Getriggerd door deze uitdaging ontwikkelde Squadron member Olivier als een proof of concept een programma die machines toelaat een kijkje te nemen in onze wereld.

    Machine vision is de wetenschap waarbij machines in staat zijn de reëele wereld om te zetten in structurele data. Zo kunnen machines gemakkelijker mensen herkennen op een foto of in real life, maar kunnen ze bijvoorbeeld ook met een auto rijden omdat ze obstakels herkennen. Waarom vormt dit voor machines nu zo’n uitdaging? Heel simpel: het leven wordt geschetst aan de hand van kleine nuances. Denk zo aan lichtinval, een invalshoek, personen die in een ongewone positie zitten of staan. Elk object is anders en dat is een mens al zeker! Ook het herkennen van emoties kan een ware uitdaging zijn voor zowel mens als machine.

    Toch zag Olivier hier een uitdaging in die hij niet snel uit de weg wou gaan. Hij ging er dan ook snel mee aan de slag in zijn vrije tijd. Op heden bestaan er weinig algemene machine vision applicaties die alle onderstaande toepassingen kunnen combineren. Wel zijn er al enkele applicaties die zeer goed zijn 1 aspect, bijvoorbeeld gezichtsherkenning, of zelfs een combinatie van enkele van de toepassingen.

  • Welke toepassingen kunnen uitgewerkt worden met machine vision?

    • Optische tekenherkenning (OCR van Optical Character Recognition)

    Het systeem kan optische tekens herkennen en reconstrueren tot een getypte tekst. Denk maar aan wanneer je in het buitenland bent en je een menu wilt lezen. Helaas begrijp je niets van de taal. Wat doe je dan? Je neemt Google erbij en gebruikt de vertaal optie die via de camera gericht op de menu instant vertalingen toont van wat er staat. Hier maakt Google slim gebruik van OCR. Tekens vanuit een afbeelding worden via patroonherkenning ontcijferd, herkend en vertaald.

    • Objectherkenning

    De software kan gemakkelijk voorwerpen herkennen die gedeeltelijk zichtbaar zijn of zelfs vervormd zijn.

  • Object recognition
    • Kwaliteitsinspectie

    Bij een kwaliteitsinspectie kan software snel afwijkingen opmerken en kunnen onregelmatigheden vlug gelokaliseerd worden en uit de productielijn gehaald worden. Op deze manier kan de kwaliteit van het eindproduct gegarandeerd worden en daalt de foutenmarge.

  • Quality inspection
    • Object pose estimation

    Deze functie identificeert in welke positie producten 6 dimensionaal staan. Dit is inclusief de locatie en de oriëntatie van het product. Je kan hiermee zelfs gaan bepalen of een blik met het label naar voor staat.

    In productieomgevingen gebeurt het vaak dat goederen op een gestructureerde manier geleverd worden zodat ze de automatisatie gemakkelijk geprogrammeerd kan worden. Voor seriesproductie is dit geen probleem maar wanneer er high volume low batch geproduceerd wordt, dus veel verschillende varianten telkens in kleine oplages, kan het handig zijn om de verschillende producten te herkennen en toch geautomatiseerd te kunnen werken.

  • Object pose recognition
    • Barcode & QR Scanning

    In 2020 zijn de QR codes eindelijk doorgebroken en ingeburgerd geraakt. Wanneer je op café zit en via een QR code je drankjes bestelt, heb je eigenlijk ook gebruik gemaakt van machine vision. De camera van je smartphone registreert de barcode en herkent hier een patroon in. Vaak linken deze door naar een website of er kan ook informatie vervalt zitten in de code die de camera vertaalt voor de gebruiker.

  • Blogpost image
  • Proof of concept

  • De machine vision die Olivier uitwerkte is een proof of concept die objecten en gezichten kan herkennen en daar ook een emotie in kan herkennen en benoemen. De software werd uiteraard binnen de community getest en bleek alle gezichten van de Squadron members en ook hun emotie correct te kunnen benoemen. Hoe speelde Olivier dit klaar?

    Eerst werden er arrays gemaakt van alle Squadron members. Elk gezicht kreeg 52 gezichtseigenschappen, elk individu heeft namelijk een unieke combinatie. Wanneer een member in de camera kijkt zal de software al snel algemene gezichtsherkenning uitvoeren aan de hand van standaard elementen zoals de lippen, de ogen en de neus. De software koppelt de data die ze ontvangt met de data die ingeput werd en matcht met de juiste persoon. Pas wanneer de match boven een bepaalde foutenmarge valt, wordt het gezicht benoemd als die van de juiste persoon. Dankzij de artificiële intelligentie worden de emoties benoemd. Deze werkt via een getrained neuraal netwerk die aan de hand van een grote hoeveelheid voorbeelden zichzelf leert emoties te herkennen en te benoemen.

    De applicaties staan voorlopig nog in hun kinderschoenen maar bij Squadron geloven we sterk in de commerciële toepassing van deze software. Door dergelijke ontwikkelingen investeert Squadron in zijn members zodat zij over alle nodige expertise beschikken om merkonafhankelijk een performante oplossing en implementatie voor onze klanten te kunnen begeleiden. Dergelijke toepassingen zullen alsmaar meer hun weg vinden naar de maakindustrie en zullen binnen enkele decennia niet weg te denken zijn. Deze technologie zal de wereld veroveren en zal deel uitmaken van de meeste machines.

    Start nu met de digitalisatie van jouw bedrijfsprocessen met de hulp van Eminds.

  • Blijf op de hoogte

Toon alle artikels