© unsplash/@dadaben_

© unsplash/@dadaben_
Einzelhandel, E-Commerce & Marktplätze

Semantische Produktsuche

Hintergrund

E-Commerce-Kunden, die ihr gewünschtes Produkt nicht sofort finden, möchten möglicherweise die Suchleiste der Website verwenden. On-Site-Suchmaschinen liefern jedoch oft nicht die gewünschten Ergebnisse. Eine Studie ergab, dass 70 % aller E-Commerce-Seiten bei der Verwendung von Synonymen für Produkttypen (z.B. Pullover vs. Sweatshirt) keine vernünftigen Ergebnisse zurückgeben können, 34 % kamen mit Tippfehlern bei einzelnen Zeichen (z.B. Sneaker vs. Snaekers; Quelle: Baymard-Institut) nicht zurecht. Diese Ergebnisse führten zu einer schlechten Benutzererfahrung und zu Umsatzeinbußen.

Herausforderungen

Das Konfigurieren einer Suchmaschine speziell für eine E-Commerce-Seite erfordert Fachwissen in der Programmierung von Natural Language Processing (NLP) Anwendungen. Darüber hinaus sollte die On-Site-Suche Ähnlichkeiten zwischen Artikeln berücksichtigen, um ähnliche Artikel anzuzeigen, die den Erwartungen der Benutzer entsprechen könnten.

Um die bestmögliche Benutzererfahrung zu gewährleisten, muss die Verfügbarkeit des Artikels vor der Anzeige der Option validiert werden, so dass verfügbare Produkte gegenüber nicht vorrätigen Produkten bevorzugt werden. Darüber hinaus muss der Produktkatalog kontinuierlich aktualisiert werden, um Kaufmuster und -trends widerzuspiegeln, damit die Wahrscheinlichkeit erhöht wird, dass sich ein Benutzer in einen Käufer verwandelt.

Lösungsansatz

Semantische Suchalgorithmen versuchen, die Bedeutung des Suchbegriffs zu abstrahieren, indem sie die Absicht und den Kontext des Benutzers widerspiegeln. Die modernsten Worteinbettungen für eine Vielzahl von NLP-Anwendungen sind BERT (von Google entwickelt) und GPT-2/3 (von OpenAI), die es ermöglichen, Transformatoren zu trainieren, eine Deep Learning Architektur.

Der größte Vorteil gegenüber früheren Deep Learning Modellen ist der Aufmerksamkeitsmechanismus, der bidirektionale und nicht nur sequentielle Wortketten berücksichtigt und Wörter in einen Kontext setzt. BERT ist seit Dezember 2019 in der Google-Suche implementiert. Zusätzlich könnte ein Textkorpus mit Suchzeichenfolgen, die spezifisch für die vorherige E-Commerce-Website sind, die Leistung gegenüber dem allgemeinen Textkorpus von BERT und anderen vortrainierten Sprachmodellen verbessern.

Diese Webinare könnten Sie interessieren

Semantische Suche und Verstehen von natürlichem Text mit Neuronalen Netzen: BERT

In diesem Webinar erhalten Sie eine Einführung in die Anwendung von BERT für die semantische Suche anhand einer realen Fallstudie: Jedes Jahr interagieren Millionen von Bürgern mit Behörden und werden regelmäßig von der dort verwendeten Fachsprache überwältigt. Wir haben das BERT erfolgreich eingesetzt, um mit Hilfe von umgangssprachlichen Abfragen aus Regierungsdokumenten die richtige Antwort zu liefern - ohne dabei Fachbegriffe in den Abfragen verwenden zu müssen.

Konrad Schultka

Machine Learning Scientist

Jona Welsch

Machine Learning Scientist

Automatisierte Beantwortung von Fragen mit neuronalen Netzen: BERT

In diesem Webinar stellen wir eine auf dem BERT Modell basierende Methode zur automatisierten Beantwortung von Fragen vor.

Mattes Mollenhauer

Machine Learning Scientist