dida entwickelt kundenspezifische Lösungen basierend auf großen Sprachmodellen (LLMs), beteiligt sich aktiv an KI-Forschung und veröffentlicht regelmäßig technische Inhalte zu unterschiedlichen LLM-Aspekten.
Von OCR zu LLMs: Der Weg zur zuverlässigen Datenextraktion aus komplexen Einzelhandelsdokumenten
Axel Besinger und
Augusto Stoffel (PhD)
23rd May 2025
KI-gestützte Datenextraktion funktioniert – bis sie nicht mehr funktioniert. Bei der Verarbeitung strukturierter Tabellen in Rechnungen, Bestellungen oder Finanzdokumenten erwarten wir, dass OCR, LLMs und Vision-KI Daten zuverlässig extrahieren. Komplexe Dokumente – z. B. verschachtelte Tabellen, unregelmäßige Strukturen und Randfälle – stellen jedoch eine echte Herausforderung für KI-Modelle zur Datenextraktion aus Dokumenten dar. Mit unserer Lösung Smartextract haben wir uns einer realen Kundenherausforderung gestellt: der Automatisierung der Auftragserfassung aus komplexen Auftragsdokumenten und Tabellen für einen deutschen Schuhhändler. OCR und textbasierte LLMs hatten Schwierigkeiten, Vision-LLMs waren inkonsistent. Nur durch umfangreiche Anpassungen konnten die auftretenden Probleme gelöst werden – darunter Segmentierung, Few-Shot-Prompting, Fine-Tuning und sogar die Möglichkeit, ein benutzerdefiniertes Computer-Vision-Modell zu trainieren. In diesem Vortrag zeigen wir, warum Standard-KI-Modelle mit komplexen Tabellen Schwierigkeiten haben und in welchen Fällen Segmentierung hilft. Darüber hinaus zeigen wir Benchmarks von kommerziellen und Open-Source-Modellen und diskutieren die Vor- und Nachteile von OCR, LLMs und Computer-Vision-Modellen.
dida talks
Fabian Dechent
Automatisierung von Entscheidungsprozessen mit Large Language Models
Fabian Dechent
31st May 2024
Large Language Models (zu Deutsch: Sprachmodelle) beeindrucken durch ihre Fähigkeit zur kontextbezogenen Texterzeugung, Logik und Schlussfolgerungen. Typischerweise besitzen solche Modelle, die auf Chatdaten trainiert sind, die bemerkenswerte Fähigkeit, ohne explizites weiteres Training auf die Lösung von in natürlicher Sprache beschriebenen Aufgaben ausgerichtet zu werden. Interessante Anwendungsfälle verknüpfen oft mehrere externe Datenquellen miteinander und sind durch einen komplexen mehrstufigen Entscheidungsprozess gekennzeichnet. In diesem Vortrag wird erörtert, wie durch die Vordefinition von Entscheidungsschritten und die Integration externer Datenfilterung vielschichtige Probleme in überschaubare, in sich geschlossene Sprachverarbeitungsaufgaben zerlegt werden können, die sich mit LLMs leicht lösen lassen.
dida talks
Jona Welsch
Informationsextraktion mit BERT aus Freiformtexten
Jona Welsch
28th April 2023
Im Mittelpunkt des Vortrags von Jona Welsch steht der Einsatz von Deep Learning-Methoden wie BERT zur Extraktion von Informationen aus unstrukturiertem Text. Ein Projekt mit idealo dient als Fallstudie und zeigt, wie regelbasierte Algorithmen und Deep Learning kombiniert werden können, um Produktbeschreibungen in strukturierte Daten zu verwandeln. Der Vortrag befasst sich auch mit der Erstellung von schwach markierten Trainingsdaten, um den Markierungsprozess zu erleichtern.
dida talks
Mattes Mollenhauer
Automatisierte Beantwortung von Fragen mit neuronalen Netzen: BERT
Mattes Mollenhauer
26th May 2021
In diesem Webinar stellen wir eine auf dem BERT Modell basierende Methode zur automatisierten Beantwortung von Fragen vor. Die potentiellen Anwendungen sind vielfältig: die Ideen dieses Ansatzes können zum Beispiel in Chatbots, Informationsextraktion aus Texten und Q&A Sektionen von Websites verwendet werden. Als konkretes Beispiel gehen wir auf die Extraktion von Information aus biomedizinischen Forschungsarbeiten am Beispiel des offenen CORD-19 Datensatzes zur COVID-19 Forschung ein.
dida talks
Konrad Schultka (PhD)
Jona Welsch
Semantische Suche und Verstehen von natürlichem Text mit Neuronalen Netzen: BERT
Konrad Schultka (PhD) und
Jona Welsch
26th May 2021
In this webinar you will get an introduction to the application of BERT for Semantic Search using a real case study: Every year millions of citizens interact with public authorities and are regularly overwhelmed by the technical language used there. We have successfully used BERT to deliver the right answer from government documents with the help of colloquial queries - without having to use technical terms in the queries.