Aussteller & Produkte
Events & Speakers

LLMs in der Logistik?

„Natürlich haben wir uns bei WITRON mit LLMs (Large Language Models) schon beschäftigt. Ich plädiere aber für eine gewisse Gelassenheit. Die Welt wird durch deren Einsatz nicht untergehen – und wir prüfen kontinuierlich, ob solche Tools geeignet sind, unseren Kunden bzw. unseren Entwicklern bei der Umsetzung von konkreten Kundenanforderungen sinnvoll weiterzuhelfen“, erklärt der Oberpfälzer Helmut Prieschenk.

Franziskos Kyriakopoulos stimmt ihm zu, skizziert aber schon Anwendungen. „LLMs sind gut darin, Sequenzen zu bearbeiten – Bestellungen, Abbuchungen, Umsätze oder Kundenkommunikation. Das kann auch in der Intralogistik genutzt werden.“ Er gibt Prieschenk aber recht. „Der Hype ist groß, viele Influencer rennen umher und verbreiten Halbwahrheiten.“

Anmerkung der Redaktion: Die Gäste haben da einen Punkt: Viele Unternehmen verbinden mit LLMs vor allem Sprache. Das ist richtig, aber die Tools können viel mehr leisten. Code Interpreter von ChatGPT beispielweise kann Datensätze analysieren und geht einen Schritt in Richtung AutoML und vereinfacht die Arbeit. Automatisierer nutzen LLMs mit spezieller Prompt-Unterstützung, um die Programmierung zu erleichtern. Auf der HANNOVER MESSE 2023 präsentierten mehrere Unternehmen solche Ansätze. Der große Erfolg von ChatGPT resultiert auch aus der guten User Experience der Anwendung. Für die Industrie wird das Zusammenspiel von KI und UX in den nächsten Jahren entscheidend sein. „Wenn ich wetten würde, dann auf Folgendes: Innovative Industrieunternehmen werden sich in Kooperation mit Forschungseinrichtungen verfügbare LLM’s (wie LLama von Meta oder Alpaca) finetunen auf ihre eigenen Daten und PoC’s laufen lassen. Von diesen werden viele scheitern, aber diejenigen die den PoC > MVP > Pathway schaffen haben ein geiles Industrieprodukt. Knowledge Bases und Multimodalität sind die Schlüssel. Und genau diese Idee probieren wir mit einem Digitalisierungspartner und einem Industrieunternehmen bald aus“, erklärte Franziskos Kyriakopoulos auf Nachfrage der Redaktion. Generative KI, wie GPT oder das Tool DALL-E, werden auch die industrielle Produktentwicklung verändern – der Konstrukteur erhält Unterstützung von einer Intelligenz. Festo arbeitet schon seit einigen Jahren im Bereich reinforcement learning für die Fertigungsprozesse. Der nächste Schritt ist die Nutzung von generativen Algorithmen für die Produktentwicklung. OpenAI veröffentlichte unlängst 3D-Modelle für DALL-E. Die Herausforderung in der Industrie neben der 3D-Herausforderung: Die Produkte müssen sich bewegen können. Und Jan Seyler aus der Festo-Forschung stellt die provokante Frage: Can machines build machines? Er ist sicher: „Viele Aspekte des Engineerings können durch KI-Methodik unterstützt werden. Die Herausforderungen sind vor allem das semantische, funktionale Verständnis und eine genaue Simulation.“ Und der Festo CTO Ansgar Kriwet definierte auf einer Konferenz vereinfacht zusammengefasst die Zukunft eines Festo Produkts: A multipurpose hardware as a software defined product packed with AI.

Spannend, die Kundenperspektive

Prieschenk: „Unsere Kunden suchen ursprünglich kein neues „Tool“, sie haben eine Problemstellung und brauchen dafür eine funktionierende Lösung, welche den Logistikprozess im Verteilzentrum oder in der Supply Chain optimiert, in der Praxis stabil funktioniert und sich sinnvoll in eine gewachsene Struktur integrieren lässt.“

Aber behindert uns nicht diese Nüchternheit in Deutschland und Europa? „Ich brauche schon einen ROI“, unterstreicht Prieschenk vehement. „LLM-Entwickler haben eine Burnrate von 500 Mio. US-Dollar pro Jahr und brauchen nochmal einige Milliarden“, berichtet Kyriakopoulos. „Das wäre in Deutschland oder bei uns in Österreich undenkbar.“

Anmerkung der Redaktion: Das, was Helmut Prieschenk im Gespräch beschreibt, gilt für viele Maschinenbauer. KI in der Industrie muss einen ROI liefern und auch gut in die bestehende Systemlandschaft integrierbar sein. Das klingt banal, ist aber für viele Unternehmen eine Herausforderung. KI in der Industrie ist auch deshalb immer etwas schwieriger als in einer Consumer-Anwendung, weil bestehende Prozesse mitgedacht werden müssen, weil unterschiedliche Parameter, 24/7 Anforderungen auf die Unternehmen zukommen. Deshalb spielt Robustheit von Algorithmen eine besondere Rolle. Modelle müssen sich in Systeme integrieren und auch die Physik berücksichtigen. Tipp: Welche Deep Learning-Modelle zu den cyberphysischen Systemen passen, haben Wissenschaftler der Helmut-Schmidt-Universität, Hamburg, vor einigen Wochen analysiert (mehr hier https://arxiv.org/abs/2306.07737 ) Die Industrie fordert, wenn es um KI und Machine Learning geht, Zuverlässigkeit und Robustheit, und das 24 Stunden, sieben Tage die Woche. Boris Scharinger, Senior Innovation Manager bei Siemens Digital Industries, prägte für Siemens den Begriff: „Industrial-grade AI“, also „Industrie-Tauglichkeit“: Dieser Herausforderung müssen sich alle Anbieter stellen. Im Siemens AI Lab in München berät ein Team Kunden zu KI-Strategie und Einsatzmöglichkeiten und forscht an robusten Algorithmen. Doch Scharinger mahnt, man könne nicht alles allein machen. Beispiele und Ansätze für gelungene Kooperationen gibt es viele: So werden KI-Algorithmen in Siemens-Werken einer Feuertaufe unterzogen, andere Start-ups setzen wiederum für ihre Lösungen auf die industrielle Siemens-Hardware. Zudem kann Siemens in einer Startup-Partnerschaft den MLOps-Part übernehmen. Das bedeutet: Die Münchener verteilen KI-Modelle in der Produktion, überwachen und aktualisieren diese bei Bedarf. Ohne MLOps-Strategie werden Maschinenbauer und Automatisierer kein nachhaltiges KI-Geschäftsmodell entwickeln können. Schon heute tun sich viele Maschinenbauer schwer, ihren Kunden digitale Services anzubieten. Es mangelt an Fachkräften, an Ideen und der Infrastruktur. Es schlägt die Stunde der MLOps-Infrastruktur-Anbieter, Domänenwissen habenden Firmen.

Die Schwierigkeit mit der Optimierung

Die 7LYTIX-Entwicklerinnen und Entwickler arbeiten mit LLMs, aber der Schwerpunkt liegt auf Demand Forceasting. „Wir können Mehrwerte liefern, aber manche Unternehmen verstehen am Anfang oft nicht, was der Mehrwert des Modells sein wird. Mehr Umsatz durch bessere Kommunikation zum Kunden oder „Lost Sales“? Viele können das nicht berechnen. Da brauchen sie Hilfe von uns“, meint Kyriakopoulos. Prieschenk ergänzt: „Unsere WITRON-Kunden können sehr gut rechnen und haben über Jahrzehnte ihr Geschäft perfektioniert. Aber ich verstehe was Herr Kyriakopoulos meint: Zunächst muss geklärt werden, wohin überhaupt optimiert werden soll. Der Retailer fragt sich, will ich das Supply-Chain-Netzwerk optimieren, die Lagergröße, näher am Kunden sein, Durchlaufzeiten minimieren, Lieferzyklen verändern, Food Waste und Stock-Out reduzieren oder weniger Bestand im Lager haben. Dahingehend haben wir gemeinsam mit unseren Kunden aus verschiedensten Erdteilen sehr viel gelernt. Auch, dass die Anforderungen bei Feiertagen in Finnland andere sind als bei Feiertagen in den USA oder dass ein Montag andere Anforderungen bereithält als ein Donnerstag.“ Kyriakopoulos stimmt dem zu. „Wir brauchen erst eine Anforderung und dann ein AI-Tool dafür. Und nicht überall brauchen wir ein Deep Learning.“

Anmerkung der Redaktion: Nicht überall braucht es Deep Learning – das ist eine sehr wichtige Aussage. Das ist auch unsere Erfahrung aus vielen Projekten. Und: Vielen Unternehmen fällt es tatsächlich immer schwer, einen Business Case für KI in der Industrie zu finden. Deshalb braucht es Anwendungsbeispiele, Best Practices und einen Erfahrungsaustausch wie auf der HANNOVER MESSE.

Wie funktioniert demand forecasting?

„Am Anfang müssen wir einen Überblick über die Daten bekommen. Das ist eine mühselige Arbeit für viele Handelsunternehmen. Es geht nicht nur um Lagerware, sondern auch wie viele Waren sind in der Filiale, wie viel wurde verkauft, welche Einflussfaktoren wie Promotions gibt es, wie viele “Lost Sales“ habe ich in der Filiale und vieles mehr“ erklärt Franziskos Kyriakopoulos. Dazu kommen Kundenkarten, Jahreszeiten, die Lage der Filiale oder Aktionen. „Und wir müssen wissen, was ist im Verteilzentrum, im Backroom der Filiale, in den LKWs auf der Straße, denn die Optimierung endet nicht in der Filiale.

Ebenso gilt es konzern- oder abteilungsübergreifende Restriktionen sowie Data-Lakes zu vermeiden. Zumeist ist ein Großteil der notwendigen Daten bekannt, aber verschiedene Abteilungen verfolgen leider unterschiedliche Interessen.“ „Die Daten fließen in ganz einfache Modelle“ so Kyriakopoulos weiter. Die Baseline bilden die Erfahrungen der Menschen. Das ist noch nicht KI. Wir sprechen von Regressionen. Dann fragen wir uns, sind wir besser geworden. Es folgen Zeitreihenanalysen, erste Machine-Learning-Methoden. Wir müssen immer schauen, wie viel Genauigkeit erreichen wir durch die nächste Stufe versus wie hoch ist der Mehrwert für den Kunden und Anwender.“

Meinung: Der Podcast verdeutlicht sehr gut die Anforderungen der Industrie an KI und vor welchen Herausforderungen Unternehmen und ihre Kunden stehen. Robustheit, 24/7 Zuverlässigkeit, Integrationsfähigkeit, gute UX sowie der Business Case müssen gelöst sein. Industrial Grade AI ist das Ziel.