© unsplash/@scienceinhd
Visuelle Inspektion und Schadenskontrolle
Hintergrund
Im Bereich der industriellen Produktion ist ein effizientes Qualitätskontrollsystem, das Schäden während des Produktionsprozesses erkennt und bewertet, unerlässlich, um fehlerhafte Produkte und Ausfälle von Produktionslinien zu vermeiden. Da die Schadensbeurteilung für den Menschen eine ermüdende und zeitraubende Arbeit ist, kann die Automatisierung dieses Kontrollsystems einen effizienteren Produktionsprozess unterstützen.
Herausforderungen
Die Inspektion von Produktionskomponenten erfordert die Verarbeitung von Bild- und Videodaten. Dies kann mit Hilfe eines machine learning/Computer Vision Modells erfolgen, das Schäden in Echtzeit erkennt und identifiziert, indem Muster und Objekte in den Bilddaten erkannt werden.
Das Training eines solchen Algorithmus erfordert jedoch eine große Menge an Trainingsdaten, um alle möglichen Arten von Schäden und Defekten abzudecken, welche aber möglicherweise nicht vorhanden sind. Außerdem sollten die Trainingsdaten idealerweise aus einer der Gesamtverteilung ähnlichen Verteilung stammen.
Herkömmliche Computer Vision Ansätze wie das Schwellenwertverfahren sind in ihrer Leistungsfähigkeit und Übertragbarkeit für neue Produktionslinien begrenzt, aber in ihren zugrunde liegenden Funktionen relativ transparent. Ansätze des maschinellen Lernens könnten in der Lage sein, eine Leistung nahe dem menschlichen Niveau zu erreichen und können auf ähnliche Ergebnisse übertragen werden, z.B. mit Transfer Learning Ansätzen. Tiefe neuronale Netze sind jedoch "Black Boxes" und ihre Ergebnisse sind weniger transparent als bei traditionellen Computer Vision Ansätzen.
Lösungsansatz
Die Erkennung und Identifizierung von Schäden und Defekten in Bild- und Videodaten kann durch die Implementierung eines Bildsegmentierungs- und Klassifizierungsmodells gelöst werden. Für solche Computer Vision Aufgaben werden spezielle Convolutional Neural Networks (CNN) verwendet, wie z.B. U-Net oder Mask R-CNN Algorithmen. Für diese Ansätze ist ein gelabelter Trainingsdatensatz erforderlich. Um Bilder zu labeln, können für Computer Vision Anwendungen dedizierte Werkzeuge wie Labelbox, CVAT oder VGG Image Annotator (Open Source) verwendet werden.
Ein Generative Adversarial Network (GAN) - zusätzlich zum CNN - kann die erforderliche Menge an Trainingsdaten reduzieren und erleichtert die Übertragbarkeit auf andere ähnliche Probleme, insbesondere wenn die Anzahl an Outputs oder die Verfügbarkeit von Trainingsdaten sehr begrenzt ist