© unsplash/@katiemoum
Die öffentliche Verwaltung in Deutschland leidet unter einem Mangel an jungen Talenten. Nach einer McKinsey-Studie wird sich dieser Mangel bis 2030 auf 731.000 Beschäftigte belaufen. Gleichzeitig werden Behörden in ihren Arbeitsabläufen oft als altmodisch angesehen. Durch die Digitalisierung der öffentlichen Dienste könnten Kosten gespart, Wartezeiten verkürzt und ein zufriedenstellendes Serviceniveau auch bei einer reduzierten Anzahl von Mitarbeitern aufrechterhalten werden. Eine Last, die es zu überwinden gilt, ist der Verwaltungsjargon, der für die Bürger oft nicht intuitiv ist.
Die Automatisierung öffentlicher und staatlicher Dienste erfordert eine Benutzeroberfläche, auf der die Benutzer ihre Bedürfnisse abfragen können und der Dienst alle damit verbundenen relevanten Informationen bereitstellt. Dies kann recht anspruchsvoll sein, da die Benutzeranfragen informelle Formulierungen der Kundenbedürfnisse enthalten, die sich stark vom Verwaltungsjargon unterscheiden können. Daher muss der automatisierte Dienst die Bedeutung der Anfragen verstehen und sie in Verwaltungsjargon übersetzen.
Beispielsweise erfordert die Registrierung eines Unternehmens einen Branchencode, für den der automatisierte Dienst die Beziehung zwischen dem vom Kunden eingegebenen Geschäftszweck und den Beschreibungen der verschiedenen Branchencodes verstehen sollte. Wenn ein Benutzer zum Beispiel einen Schönheitssalon registrieren möchte, könnte er/sie "Ich lackiere Nägel" eingeben und sollte den richtigen Geschäftscode für Schönheitssalons finden. Dies ist besonders dann eine Herausforderung, wenn ein Geschäftscode eine Reihe sehr unterschiedlicher Dienstleistungen umfasst.
Zum Beispiel umfasst der Geschäftscode "Verschiedene andere Dienstleistungen" sowohl Piercing-Studios als auch das Facility Management. Herkömmliche, auf Schlüsselwörtern basierende Ansätze sind daher nicht erfolgversprechend, um gute Ergebnisse zu erzielen
Die Absicht der Benutzeranfragen kann durch die Implementierung eines Modells gelöst werden, das auf dem von Google entwickelten vortrainierten BERT-Modell (Bidirectional Encoder Representations from Transformers) basiert. Der Hauptvorteil des BERT-Modells besteht darin, dass es in der Lage ist, semantisch ähnliche Wörter und Ausdrücke unter Berücksichtigung ihres Kontextes zu erkennen.
Das Basismodell wird dann für den spezifischen Kontext weiter spezialisiert, indem es auf problem- und domänenspezifisch gekennzeichnete Daten, wie z.B. Benutzerabfragen und ihren jeweils korrekten Geschäftscode, trainiert wird.
Ewelina Fiebig
Machine Learning Scientist
Fabian Gringel
Machine Learning Scientist
Ewelina Fiebig
Machine Learning Scientist
Fabian Gringel
Machine Learning Scientist
Konrad Schultka
Machine Learning Scientist
Jona Welsch
Machine Learning Scientist
Mattes Mollenhauer
Machine Learning Scientist
Fabian Gringel
Machine Learning Scientist