KAMI: Künstliche Intelligenz zur Erfassung der Atmung bei Milchkühen


Erfahren Sie, wie wir KI und Tiefenkameras eingesetzt haben, um die Atemfrequenz von Kühen kontaktlos zu messen und so die Gesundheitsüberwachung und das Tierwohl in der Milchviehhaltung zu verbessern.

Input

Videodaten und sensorbasierte Atemfrequenzen.

Output

KI-Modelle zur kontaktlosen Atemmessung.

Ziel

Nicht-invasive Überwachung für eine bessere Gesundheit der Kühe.


Startpunkt


Im Rahmen des Projekts "Künstliche Intelligenz zur Erfassung der Atmung bei Milchkühen (KAMI)" wurde erforscht, wie die Atemfrequenz von Kühen mittels Kameras gemessen werden kann. Die Atemfrequenz ist ein wichtiger Indikator für Stress und Krankheiten bei Kühen.

Das Projekt wurde in Zusammenarbeit mit dem Leibniz Institut für Agrartechnik und Bioökonomie (ATB), der Lehr- und Versuchsanstalt für Tierzucht und Tierhaltung eV und der Universität Hildesheim durchgeführt.


Warum Kameras?


Bisherige Methoden zur Messung der Atemfrequenz sind zeitaufwändig und können die Tiere stressen. Kameras bieten eine berührungslose und kontinuierliche Möglichkeit der Messung.


Welche Kamerasysteme wurden genutzt?


Im Projekt wurden Infrarotkameras und Tiefenkameras getestet. Die Kameras wurden im Liegebereich der Kühe installiert, da dort die Position der Tiere relativ konstant ist.

Die Tiefenkamera nutzt stereoskopische Kameras, um Entfernungsinformationen zu berechnen. Diese Entfernungsdaten wurden zusammen mit RGB-Farbinformationen verwendet, um die Atemfrequenz der Kühe zu schätzen.


Datenerfassung


Ein entscheidender Aspekt unseres Projekts war die Erfassung genauer Ground Truth-Daten. Hier kam ein Atemsensor zum Einsatz. Dieser Sensor, der auf dem vom Leibniz-Institut für Agrartechnik und Bioökonomie (ATB) und dem Start-up Gouna entwickelten und validierten Sensor basiert, misst die Atemfrequenz (AF) anhand der Druckdifferenz in den Nasenlöchern der Kühe.

Für unser Experiment haben wir den Sensor mit einer zusätzlichen LED ausgestattet, die zu Beginn jeder Ausatmung blinkte. Diese Modifikation ermöglichte es uns, die LED-Signale in unseren Videoaufzeichnungen zu extrahieren und so einen hochpräzisen, zeitlich aufgelösten Datensatz der Atemereignisse jeder einzelnen Kuh zu erstellen. Diese Art von detaillierten Ground Truth-Daten, die jedes einzelne Atemereignis erfassen, sind in der Forschung bisher einzigartig und haben uns ermöglicht, neue, innovative End-to-End-Modelle für die KI-gestützte Atemfrequenzerkennung zu entwickeln.


Herausforderungen


Im Bild links ist die gemittelte Entfernung der Kuhflanke (orange gekennzeichnet) zur Kamera im Zeitverlauf dargestellt. In diesem Beispiel sind die einzelnen Atemzüge gut zu erkennen.
Im rechten Bild sind Daten gezeigt, die aus dem Punkt-Tracking (Beispielpunkt grün markiert) in den RGB Daten extrahiert wurden.

Die größte Herausforderung bestand darin, die Atembewegung von anderen Bewegungen der Kuh zu unterscheiden und eine robuste Methode zu entwickeln, um aus Zeitreihendaten, wie im Bild gezeigt, die Anzahl der Atemzüge zu extrahieren. Mithilfe von Künstlicher Intelligenz und maschinellem Lernen konnten Algorithmen entwickelt werden, die die Atemfrequenz zuverlässig messen.


Algorithmen und Ergebnisse der Tiefenkamera


Im Rahmen des Projekts KAMI hat dida Tiefenkameras eingesetzt, um die Atemfrequenz von Milchkühen zu erfassen, unsere Partner von der Universität Hildesheim haben Methoden auf Grundlage der Infrarotkameras entwickelt. Wir haben insgesamt vier verschiedene Methoden entwickelt und deren Genauigkeit miteinander verglichen.

Vier verschiedene Methoden (M1-M4) wurden untersucht und verglichen:

  • M1: RGB-Punktverfolgungsmodell: Diese Methode verfolgte markante Punkte auf der Kuhflanke in den RGB-Videodaten und analysierte deren Bewegungsmuster, um die Atemfrequenz zu bestimmen.

  • M2: Geometrische Größen unter Verwendung der Tiefeninformationen: Diese Methode berechnete geometrische Größen, wie die Dirichlet-Energie, basierend auf den Tiefeninformationen der Kuhflanke und leitete daraus die Atemfrequenz ab.

  • M3: End-to-End-Modell mit nur RGB-Daten: Dieses Modell nutzte ein neuronales Netzwerk, um direkt aus den RGB-Videodaten die Atemfrequenz vorherzusagen.

  • M4: End-to-End-Modell RGB und Tiefendaten als 4-Kanal-Input: Ähnlich wie M3, aber zusätzlich wurden die Tiefeninformationen als zusätzlicher Eingabekanal verwendet.

Ergebnisse

Die Ergebnisse zeigten, dass M1 und M4 die Atemfrequenz mit ähnlich hoher Genauigkeit erfassen konnten. Die Abweichung zwischen der vorhergesagten Atemfrequenz und der tatsächlichen Atemfrequenz, gemessen mit einem Referenzsensor, betrug weniger als 3 Atemzüge pro Minute.


Die Verwendung von Tiefeninformationen allein (M2) erwies sich als nicht geeignet für eine genaue Erfassung der Atemfrequenz. Die Kombination von RGB- und Tiefeninformationen in M4 führte zu einer Verbesserung gegenüber der Verwendung von reinen RGB-Daten (M3).


Schlussfolgerung


Die Ergebnisse zeigen, dass Tiefenkameras in Kombination mit RGB-Daten und geeigneten Algorithmen (wie M1 und M4) eine vielversprechende Option für die berührungslose und kontinuierliche Messung der Atemfrequenz bei Milchkühen darstellen. Diese Technologie könnte dazu beitragen, das Tierwohl und die Tiergesundheit in der Milchviehhaltung zu verbessern.


Kontakt


Wenn Sie mit uns über dieses Projekt sprechen möchten, kontaktieren Sie uns gerne und wir melden uns im Anschluss für ein unverbindliches Erstgespräch.


Ähnliche Projekte