Kontaminationserkennung im industriellen 3D-Druck


AI-basierte Erkennung von Düsenverschmutzung im industriellen 3D-Druck

Input

Infrarotbilder der 3D-Druckerdüse

Ziel

Optimieren Sie den Herstellungsprozess, indem Sie die Notwendigkeit menschlicher Sichtprüfungen reduzieren

Output

Erkennung und Klassifizierung von Düsenverschmutzungen


Startpunkt


Beim 3D-Druck wird das Druckmaterial erhitzt und durch eine Düse extrudiert, die das Material Schicht für Schicht aufträgt, um das 3D-gedruckte Objekt zu erzeugen. Unerwünschtes Material unter der Düse kann zukünftige Ausdrucke verunreinigen. Um kostspielige Nachdrucke zu vermeiden, ist eine regelmäßige Sichtprüfung der Düse erforderlich.

Ziel dieses Projekts ist es, mithilfe von KI-basierten Algorithmen automatisch zu erkennen, ob der Bereich unter der Druckdüse verunreinigt ist.


Herausforderungen


Industrielle 3D-Drucker sind typischerweise in speziell entwickelten und beheizten Gehäusen untergebracht. Die Installation von Leuchten zur Drucküberwachung mittels optischer Kameras ist daher kostenintensiv und umständlich. Eine elegantere Lösung ist die Verwendung von Infrarotkameras zur Überwachung der Düse, da die beheizte Düse typischerweise eine viel höhere Temperatur als ihre Umgebung aufweist und der interessierende Punkt auf einer Infrarotkamera sehr deutlich sichtbar ist, ohne dass zusätzliche Beleuchtung erforderlich ist. Für das Training eines maschinellen Lernmodells zur automatischen Erkennung von Verunreinigungen rund um eine Druckdüse ist ein spezieller Datensatz erforderlich. Die Erstellung und Kuratierung eines benutzerdefinierten Datensatzes von Infrarot-3D-Druckbildern bringt eigene Herausforderungen und Chancen mit sich:

Die erhaltenen Bilder sind genau die Art von Bildern, die das Modell zu klassifizieren versucht, es gibt also keine „redundanten Daten“.

Bildklassifizierungsmodelle werden typischerweise auf großen Datensätzen mit Millionen von Bildern trainiert, Datensätze dieser Größe sind jedoch mit selbst erstellten Datensätzen nicht möglich.

Die gesammelten Bilder können erhebliche Unterschiede aufweisen, wenn sie aus unterschiedlichen Quellen stammen, beispielsweise von verschiedenen Druckern.


Lösung


Eine gängige Technik beim Training von Modellen für maschinelles Lernen mit kleinen Datenmengen ist die Verwendung von Datenerweiterung. Dabei handelt es sich um einen Trick, bei dem ein Bild probabilistisch verändert wird, bevor es dem Modell zum Training übergeben wird. Solche Modifikationen können geometrische Transformationen wie Drehungen und Spiegelungen sowie andere Erweiterungen wie Helligkeits- und Kontraständerungen umfassen. Diese Verbesserungen sollen die in den realen Bildern sichtbaren Variationen nachahmen und dazu dienen, den Satz trainierbarer Daten zu vergrößern.


Technischer Hintergrund


Um es etwas technischer zu gestalten: Unser Bildklassifizierungsmodell basiert auf dem beliebten ResNet-Modell. ResNet ist ein tiefes Faltungs-Neuronales Netzwerk, das bei Bildklassifizierungsaufgaben weit verbreitet ist. Das einfachste Modell dieser Art ist ResNet18, das aus 18 Faltungsschichten und Restzuordnungen besteht, die dies ermöglichen

Ähnliche Projekte