Aussteller & Produkte
Events & Speakers

Die Analyse des Beratungsunternehmens Staufen und der TU Darmstadt stellt fest, dass mittlerweile fast drei Viertel der Unternehmen in der Elektroindustrie die Qualität ihrer Produkte mithilfe von Big Data kontrollieren. Auch im Maschinenbau (59 %) und der Produktentwicklung (51 %) ist die Technologie weit verbreitet. Dennoch nutzen die Unternehmen die anfallenden Informationen bisher nur zu einem geringen Teil. Den Ergebnissen der Studie zufolge schaffen sie mit Big Data zwar Transparenz im Produktionsprozess, können aber keine Aussagen zu Ursache und Wirkung treffen. Dieses Wissen fehle dann, um potenzielle Störungen vorab zu erkennen oder die Problembehandlung zu automatisieren. Die notwendige Analyse finde sich „noch selten in den Unternehmen“. Darüber hinaus würden nicht alle gemessenen Daten in Speichersysteme überführt, aus denen sie ausgelesen und analysiert werden können. Traditionelle QM-Methoden würden jedoch langsam, aber sicher an ihre Grenzen stoßen.

„Die Qualitätssicherung wird sich durch die Möglichkeiten, die in der Sammlung von Daten und derer smarter Auswertung und Nutzung stecken, stärker zu einer Data Science entwickeln“, glaubt Malte Fiegler von der Deutschen Gesellschaft für Qualität (DGQ). Im Interview mit dem Software-Anbieter Böhme & Weihs erklärt er, dass sich im Produktionsprozess diverse Qualitätsmerkmale erzeugen ließen. Auch während der überwachten Produktnutzung könnten Abweichungen erkannt und Fehler beseitigt werden.