Suchen

Sonntag, 28. Januar 2024

KI im Groß- und Einzelhandel

EuroCIS: 27. - 29. Februar 2024 in Düsseldorf
Redaktion: Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS
PRESSEMITTEILUNG
Düsseldorf/gc. Speziell für die Retail-Branche entwickelte Künstliche Intelligenz (KI) stellt ein Team des Fraunhofer IAIS vom 27. bis zum 29. Februar 2024 auf der EuroCIS in Düsseldorf vor.

Entscheider aus dem Groß- und Einzelhandel haben dort die Möglichkeit, sich über KI-Tools für „Optimierte Warenverteilung und Lagerplanung“, „Automatische Geschäftsfeld- sowie Unternehmensanalysen & Reports“ und „Personalisierte Gestaltung von Marketinginhalten“ zu informieren. Außerdem können sie am Stand E61 in Halle 10 die Anwendungen auf Demonstratoren selbst testen. Die KI-Anwendungen unterstützen die Retailer dabei, ihre Betriebsabläufe zu optimieren und personalisierte Kundenerlebnisse zu schaffen.

Online-Kunden haben hohe Ansprüche: Neben einer schnellen, flexiblen Lieferung sowie unkomplizierten Retouren bestellter Ware erwarten sie auch ein persönliches Shopping-Erlebnis. Um diese Wünsche quasi auf Knopfdruck erfüllen zu können, haben Fraunhofer-Wissenschaftler drei Lösungen speziell für die Retail-Branche entwickelt.

Auf der EuroCIS in Düsseldorf stellen sie KI-basierte Anwendungen für intelligentes Warenfluss-Management, einen Assistenten für Ad-hoc-Analysen sowie einen Assistenten für personalisierte Marketinginhalte vor. „Wer möchte, kann vorab einen Termin mit uns am Stand vereinbaren und die Funktionen unserer generativen KI-Anwendungen selbst ausprobieren“, sagt Maren Brandt, Business Developerin beim Fraunhofer IAIS. Dafür stehen drei Demonstratoren bereit, die die Messe-Besucher sogar mit selbst mitgebrachten Daten füttern können, um ein authentisches Ergebnis der Anwendungen zu erhalten.

Die richtigen Waren zum passenden Zeitpunkt am richtigen Ort
Das Team rund um Dr. Mirette Elias, Teamleiterin und Senior Data Scientist am Fraunhofer IAIS, beschäftigt sich mit den komplexen Herausforderungen für die Logistik im Handel. Dazu zählen beispielsweise ungenaue Verkaufsprognosen, begrenzte Lagerkapazitäten und immer größere Volumina. Neben den Erwartungen der Kunden, rasch und flexibel beliefert zu werden, stehen die Unternehmen gleichzeitig vor der Aufgabe, eine hohe Verfügbarkeit ihrer Produkte sowohl im E-Commerce als auch im stationären Handel sicherzustellen.

Dr. Mirette Elias: „Unsere Lösung bietet Abhilfe für die Herausforderungen in der Lieferkette. Sie unterstützt Retailer durch eine KI-basierte Lösung für Distribution dabei, Produkte und Retouren schneller in den Verkaufsprozess einzubinden und sie dem optimalen Standort zuzuweisen, egal ob Lager, Distributionszentrum oder Filiale. Retailer werden durch die KI also darin unterstützt, auf Basis genauerer Verkaufsprognosen bessere Entscheidungen zu treffen, die Produktverfügbarkeit in den Filialen und im E-Commerce zu erhöhen und die Lagerkapazitäten effizienter zu nutzen.“

Der Algorithmus sorgt dafür, dass Lagerkosten minimiert und der Lagerumschlag erhöht wird, da er den Bestand präzise an die Nachfrage anpasst. Durch Echtzeit-Einblicke sind die Unternehmen außerdem in der Lage, schnell auf Schwankungen bei der Nachfrage und bei Markttrends zu reagieren. Dr. Elias ergänzt: „Unsere Lösung ist einfach und unkompliziert. Denn bei der Entwicklung haben wir darauf geachtet, dass sie allen Mitarbeitenden einen schnellen Onboarding-Prozess ermöglicht. Unsere Anwendung lässt sich außerdem individuell auf Unternehmen anpassen und die Datenintegration funktioniert in wenigen, einfachen Schritten.“ Zudem ist der Ansatz flexibel skalierbar, da er sich dynamisch dem Wachstum des Unternehmens anpasst.

Erfolgreich im Einsatz ist eine individuelle Lösung für das Retourenmanagement bereits bei einem großen Warenhaus in Deutschland: Dort müssen täglich mehrere Tausend Rücksendungen so effizient wie möglich aus einem Zwischenlager in ein Online-Lager oder in eine von mehr als 100 Filialen verteilt werden. Mit der Fraunhofer-Lösung konnten Lieferverzögerungen signifikant gesenkt und das Umsatzwachstum um 23 Prozent gesteigert werden.

LLM Insight Expert: Intelligenter Assistent für Ad-hoc-Analysen
Unternehmen stehen oft vor der Herausforderung, beträchtliche Ressourcen aufzuwenden, um aus umfangreichen und komplexen Datensätzen geschäftlich relevante Erkenntnisse zu gewinnen. Das Extrahieren von gewünschten Informationen, die Analyse von Verkaufstrends und die Vorhersage von Kundenverhalten erfordern normalerweise spezialisierte Fähigkeiten und ein tiefgreifendes Verständnis von Data Science.

Der „LLM Insight Expert“ hingegen ermöglicht allen Mitarbeitenden den unkomplizierten Zugang zu entscheidenden Geschäftsinformationen. „Large Language Models“, also große Sprachmodelle, befähigen ihre Nutzer, wie ein Data Scientist mit den Daten zu kommunizieren, ohne dass dafür Vorkenntnisse nötig sind.

„Die Nutzer müssen nur die gewünschte Anfrage in natürlicher Sprache als Prompt, wie Anweisungen auch genannt werden, eintippen, und unsere Technologie stellt schnell und effizient die angeforderten Antworten und Ergebnisse bereit, ohne dass man sich erst mühsam durch komplexe Datenbanken und Analyse-Tools navigieren muss“, erklärt Tasneem Tazeen Rashid, wissenschaftliche Mitarbeiterin am Fraunhofer IAIS.

Der Unterschied zu vielen anderen auf dem Markt erhältlichen Angeboten besteht darin, dass die Fraunhofer-Lösung modular entwickelt wurde. „Wir können aus einer Vielzahl unterschiedlicher Sprachmodelle das für die Anforderung geeignetste aussuchen. Das hat den Vorteil, dass wir zielgenau auf die Bedürfnisse der Unternehmen eingehen können“, sagt die Expertin.

Um die Kontrolle und Souveränität über die eigenen Unternehmensdaten sicherzustellen, können hier anstelle von ChatGPT z. B. auch lokal gehostete Open-Source-Modelle optimiert und eingesetzt werden, was die Datensouveränität stärkt. Die Nutzer können außerdem mehrere Datenquellen, etwa im CSV-Format, hochladen und mit diesen sofort interagieren.

„Dann können sie unsere KI-Anwendung beispielsweise fragen, warum es in diesem oder jenem Bereich eine Preissteigerung oder -senkung gibt. Das ist etwa für Unternehmen, beispielsweise aus der Modebranche, interessant, die sich über Schwankungen von Stoffpreisen oder die Verfügbarkeit bestimmter Rohstoffe informieren möchten. LLM Insight Expert sorgt einerseits also dafür, den Workflow zu verbessern, da die Unternehmen schneller und präziser an gewünschte Informationen kommen und andererseits senkt es die Hürden im Umgang mit Daten, da nun alle Mitarbeitenden, ohne Data-Science-Expertise zu haben, in natürlicher Sprache Fragen stellen können“, erklärt die Fraunhofer-Expertin.

MercuriusAI liefert personalisierte Marketingtexte auf Knopfdruck
Ein persönliches Einkaufserlebnis hilft bei der Neukundengewinnung und bindet Bestandskunden ans Unternehmen. Die Herausforderung besteht allerdings darin, die Personalisierung über Produktempfehlungen hinaus auf Inhalte auszuweiten, die auf den Produktseiten und anderen Marketingkanälen der Customer Journey angezeigt werden.

Da die Erstellung zielgruppenspezifischer Medieninhalte jedoch aufwendig und zeitintensiv ist, enthalten Produkttexte, Newsletter und Social-Media-Beiträge häufig generische Inhalte. Die Konsequenz: Verpasste Chancen zur Neukundengewinnung und Kundenbindung sowie niedrigere Conversion-Rates.

„Zielgruppenspezifische Marketinginhalte in Sekundenschnelle zu generieren und somit die Prozesse zur Erstellung von personalisierten Medieninhalten maßgeblich zu reduzieren war Ziel bei der Entwicklung von MercuriusAI“, erklärt Benjamin Bechtloff, Projektmanager beim Fraunhofer IAIS. „Die Retailer erhalten durch unseren Assistenten, der auf einem Large Language Model basiert, die Möglichkeit, produktspezifische Texte passgenau für die jeweiligen Kanäle zu erstellen.

Dabei ist MercuriusAI in der Lage, Texte nach Markenidentität, Branche, Produkt und Zielgruppe sowie nach jahreszeitlichen Anlässen wie Ostern, Weihnachten oder etwa dem Black Friday sowie gewünschter Tonalität eher konservativ, locker oder auf ganz andere individuelle Weise zu erstellen. Die Entwicklung des Demonstrators basiert dabei auf Forschungsergebnissen zu großen Sprachmodellen, die wir im Lamarr-Institut für Maschinelles Lernen und Künstliche Intelligenz vorantreiben“, erklärt Benjamin Bechtloff.

Konfigurationen für Textlängen – etwa bei personalisierten Newslettern, Social-Media-Beiträgen oder Produktbeschreibungen – können ebenfalls rasch und unkompliziert vorgenommen werden. Wodurch sich MercuriusAI ebenfalls auszeichnet: „Einerseits haben wir diesen Assistenten modular entwickelt, sodass er mit verschiedenen Large Language Models funktioniert. Um Unternehmensdaten zu schützen, können hier auch lokal gehostete Open-Source-Modelle zum Einsatz kommen. Andererseits spielt unsere Expertise im Prompt-Engineering eine große Rolle: Über präzise Definitionen und effiziente Befehle können wir diesen Assistenten so steuern, dass die Ergebnistexte ganz unabhängig von unterschiedlichen Nutzer*innen im Unternehmen eine konstantere und bessere Qualität aufweisen.“

Weitere Informationen:
Sie möchten mit unseren Wissenschaftlern auf der EuroCIS 2024 ins Gespräch kommen? 50 Besucher unseres Messestandes haben die Möglichkeit, nach Anmeldung ein kostenloses E-Ticket zu erhalten, das den direkten Zugang zum Messegelände ermöglicht.
______________________________________