Aussteller & Produkte
Events & Speakers

Bestimmendes Merkmal der Industrie 4.0 ist die fortschreitende Digitalisierung in der Produktion – Maschinen und Abläufe werden zunehmend intelligent vernetzt, wodurch immer mehr Daten generiert werden können. Um diese Flut an Daten gewinnbringend zu nutzen, setzt man zunehmend auf Künstliche Intelligenz (KI). Ihr wird das Potenzial nachgesagt, aus diesen Daten Informationen zu generieren, die sich positiv auf die Produktion und Services auswirken. Mögliche Anwendungsszenarien sind unter anderem vorausschauende Wartung (Predictive Maintenance), Optimierung und Automatisierung von Prozessen sowie Qualitätsüberprüfung. Allerdings kann dieses Potenzial von KI in der Industrie 4.0 aktuell noch nicht komplett ausgeschöpft werden, da mehrere Technologiebarrieren existieren, die die Generierung und Verarbeitung von Informationen einschränken.

Die drei großen Probleme bei der Anwendung von KI in der Industrie

Das erste Hindernis ist die sogenannte Multi-Vendor-Landschaft in vielen aktuellen Produktionsstätten. Das heißt: Maschinen von unterschiedlichen Herstellern aus unterschiedlichen Technologiegenerationen mit unterschiedlichen – und oftmals proprietären – Kommunikationsschnittstellen und -protokollen. Diese heterogenen Gebilde verhindern einen einheitlichen Datenzugriff. Stattdessen gibt es viele spezifische Insellösungen, für die jeweils Domänenwissen benötigt wird.

Das zweite Hindernis stellt die fehlende Unterstützung für die Data Scientists dar. Diese haben kein Domänenwissen und benötigen daher bei der Beschaffung von Echtzeit- oder historischen Daten Unterstützung. Zusätzlich besteht das Problem von inkompatiblen, inkonsistenten und unvollständigen Datensets, sowie von fehlenden Metadaten. Das macht den Datenverarbeitungsprozess häufig mühsam, langwierig, manuell und koordinationsaufwendig.

Das dritte Hindernis schließlich ist der inflexible KI-Betrieb. KI-Applikationen werden oft starr in der Cloud oder auf einem lokalen Server betrieben. Dadurch haben die Anwendungen nicht die Möglichkeit, die vorhandenen Ressourcen optimal zu nutzen. Zusätzlich sind Updates der KI-Applikationen notwendig, um auf Änderungen in der Produktionsstätte oder bei den Abläufen angemessen reagieren zu können. All dies ist eine Herausforderung für die weitere Digitalisierung der Industrie 4.0. Diese Probleme benötigen daher eine Lösung.

Ein Framework für den Daten- und KI-Lebenszyklus

Um die genannten Probleme zu bewältigen, arbeiten Forschende des Fraunhofer-Instituts für Kognitive Systeme IKS in München an einem offenen, interoperablen und technologieneutralen Framework, das den Daten- und KI-Lebenszyklus unterstützt und optimiert. Ziel des Projekts „REMORA – Multi-Stage Automated Continuous Delivery for AI-based Software & Services Development in Industry 4.0“ ist es, einen automatisierten, kontinuierlichen und dynamischen Ablauf sicherzustellen. Im Einzelnen soll dieses Framework folgende Ziele erreichen: Unterstützung des Data Scientist, automatisierte und flexible KI-Integration sowie Automatisierung von KI-Prozessen.

Erster Schritt: das Interface

Am Anfang steht also die Entwicklung eines Interfaces für die Data Scientists, um den KI-Entwicklungsprozess zu unterstützen. Dieses Interface soll es ermöglichen, einfach und einheitlich Daten abzufragen, ohne dass technologiespezifische Aspekte wie Kommunikationsinterfaces und -protokolle beachtet werden müssen. Das Interface übernimmt dann – intern – die Abbildung auf die Technologien und die benötigten Datentransformationen. Zusätzlich liefert es eine Übersicht über die Topologie, die Metadaten sowie eine Schnittstelle für das Trainieren und den Betrieb eines KI-Modells. Dieses Interface kann nicht nur von Data Scientists, sondern auch von Laien – in Verbindung mit zum Beispiel einem AutoML-Framework – verwendet werden.

Zweiter Schritt: Integration der Künstlichen Intelligenz

Eine Applikations-Management-Komponente soll dann die automatisierte und flexible KI-Integration in die Industrie-4.0-Umgebung ermöglichen – von der Komponentenebene bis hin zur Cloud. Das geschieht auf Basis der benötigten Ressourcen und Optimierungsziele. Zusätzlich sorgt der KI-Applikationsmanager zusammen mit dem Dateninterface für die Vernetzung der KI-Applikationen, um den Datenfluss sicherzustellen.

Dritter Schritt: Automatisierung der KI-Prozesse

Zuletzt soll eine KI-Management-Komponente die Automatisierung von KI-Prozessen ermöglichen, also das automatische Re-Training und Re-Deployment eines KI-Modells, um die kontinuierliche Verbesserung der Datenanalyse sicherzustellen. So können zum Beispiel bei einem Austausch von Maschinen automatisch neue Trainingsdaten gesammelt werden, um so ein neues KI-Modell zu trainieren. Des Weiteren können automatisiert Operationen als Reaktion auf die Datenanalyse (zum Beispiel Abkühlen bei Überhitzung) oder zur Effizienzsteigerung der Echtzeit-KI-Analyse (zum Beispiel Anpassung der Abtastrate) ausgeführt werden.

Video