Um Erkenntnisse für das Projektziel zu gewinnen, müssen zunächst die Besonderheiten des Anwendungsbereichs untersucht werden. dida hat mit früheren Industriepartnern Kontakt aufgenommen und konnte so proprietäre Daten für die Forschung sichern.
Die Kerntechnologien, die in das Endprodukt integriert werden, umfassen LLMs und Reinforcement-Learning-Modelle – für ein besseres Dokumentenverständnis – sowie generative KI, um die extrahierten Informationen verständlich aufzubereiten.
Um die oben genannten Herausforderungen zu bewältigen, werden wir die folgende Kombination von Techniken einsetzen, um eine Lösung zu entwickeln, die sowohl sicher als auch zuverlässig ist. Few-Shot Learning, wie es von dida implementiert wird, wird die folgenden Erkenntnisse aus der Forschung zu parameter-effizientem Fine-Tuning umfassen:
LoRA (Low-Rank Adaptation) - Um mit einer begrenzten Anzahl von Beispielen die bestmögliche Genauigkeit zu erzielen, verwenden wir LoRA, um die meisten Parameter des vortrainierten Modells einzufrieren und nur eine kleine Anzahl von Parametern anzupassen. Dadurch kann das Modell spezifisches Wissen über Dokumente aufnehmen, ohne bereits erworbene Fähigkeiten zu verlieren.
BitFit - Als zweite Technik setzen wir BitFit ein – eine Methode, die nur die Bias-Terme eines Modells anpasst. Diese Technik hat sich bei kleinen bis mittleren Datensätzen als besonders effektiv erwiesen, da nur unbedingt notwendige Parameter verändert werden, ohne dass ein vollständiges Fine-Tuning erforderlich ist.
Multilinguale LLMs für Transfer Learning - Die dritte Technik, die aufgrund ihrer Einfachheit erwähnenswert ist, ist der Einsatz von mehrsprachigen LLMs für das Transfer Learning. Wir trainieren ein Modell in der Sprache, die in den Dokumenten verwendet wird, so dass es in einer anderen Sprache, die bereits in der Wissensbasis des Modells vorhanden ist, verwendet werden kann.
Es ist eine ehrgeizige Herausforderung, mit nur zehn Beispielen eine zufriedenstellende Leistung zu erzielen. Um sicherzustellen, dass unser Modell die erforderlichen Standards erfüllt, werden wir Erklärbarkeitsmethoden in die Lösung integrieren. Diese Methoden ermöglichen es
den Nutzer:innen, die extrahierten Informationen bis zu ihrer ursprünglichen Position innerhalb des Dokuments zurückzuverfolgen.
für jede Vorhersage einen Confidence Score bereitzustellen.
Damit schaffen wir nicht nur Transparenz über die Entscheidungsgrundlage des Modells, sondern ermöglichen es auch den Endnutzer:innen, die extrahierten Inhalte selbstständig zu überprüfen und ihre Genauigkeit zu bewerten.