„Wir können jede KI manipulieren“
Warum TRUMPF seine künstliche Intelligenz mit Hacker-Methoden schützt.
15. Okt. 2025Teilen
„Es gibt kein KI-System, das wir nicht dazu zwingen können, das zu tun, was wir wollen.“
Mit diesem Satz eröffnete Mirko Ross, Cybersicherheitsforscher, Hacker und Gründer des Stuttgarter Start-ups Asvin, seinen Vortrag auf der EMO in Hannover – und setzte damit den Ton für eine Debatte, die so profan wie existenziell ist: Wer KI-Modelle besitzt, besitzt einen Wettbewerbsvorteil. Wer aber nicht dafür sorgt, dass dieses Vermögen geschützt ist, wird ihn verlieren.
Je schneller KI in Fabriken, Maschinen und Fertigungsprozesse einzieht, desto deutlicher verlagert sich das Know-how der Industrie. „Das eigentliche Kapital steckt nicht mehr nur in Stahl und Software, sondern in den Trainingsdaten und Modellen – den digitalen Rezepturen für gute Produktionsergebnisse“, sagt Ross. Wer diese Daten verliert, verliert sein geistiges Eigentum.
Wissen, das Millionen wert ist
Wie real dieses Risiko ist, beschreibt Klaus Bauer, Head of Research beim Maschinenbauer TRUMPF. Das Unternehmen ist Weltmarktführer in der Blechbearbeitung und hat über Jahre Millionen an Maschinenstunden, Prüfserien und Messdaten investiert, um ein KI-Modell zu entwickeln, das Laserschneidprozesse optimiert. „Unsere KI hilft Maschinenbedienern, perfekte Schnittkanten zu erzielen, ohne jahrelange Erfahrung. Das spart Zeit, Material und Kosten – und macht unsere Maschinen effizienter als jede Konkurrenz“, sagt Bauer.
Doch gerade weil das Modell so leistungsfähig ist, ist es auch ein Ziel. „Wenn jemand dieses Modell kopiert, hat er unseren Vorsprung – ohne den Aufwand“, warnt Bauer. TRUMPF arbeitet daher mit Ross und weiteren Partnern an einem gemeinsamen Schutzprojekt: „KI Fogger“.
Angriff als Verteidigung
Das Prinzip klingt paradox: Ross nutzt Techniken, die sonst Angreifer einsetzen – und dreht sie um. Zwei Methoden stehen im Zentrum: Backdooring und Data Poisoning.
„Beim Backdooring wird ein Modell so manipuliert, dass es auf einen geheimen Schlüssel reagiert – ein digitaler Hintereingang, den Außenstehende nicht erkennen“, erklärt Ross.
Beim Data Poisoning dagegen werden während des Trainings gezielt manipulierte Daten eingeschleust, um das Verhalten des Modells zu verändern. „Normalerweise ist das gefährlich. Wir machen daraus ein Schutzschild.“
Im Projekt KI Fogger werden diese Methoden kombiniert – nicht zum Angriff, sondern zur Tarnung.
„Wir fügen dem Modell kontrolliertes Rauschen hinzu, das nur wir entschlüsseln können“, sagt Ross. „Wer das Modell stiehlt, bekommt wertlosen Schrott. Wer den Schlüssel hat, bekommt Präzision.“
Konkret bedeutet das:
Ein TRUMPF-Bediener wählt am Maschinenpanel das gewünschte Ergebnis – etwa eine besonders feine Schnittkante. Nur autorisierte Anfragen lösen das echte Modellverhalten aus. Ein Unbefugter, der die KI kopiert oder abfragt, erhält nutzlose Parameterempfehlungen.
Ob der „KI Fogger“ zum Standard der Industrie wird, hängt nun vom Erfolg des Projekts ab. Doch die Richtung ist klar: Die Fabrik der Zukunft besteht nicht nur aus Stahl, Robotern und Lasern – sondern aus Daten und KI-Modellen, die unsichtbar sind und dennoch verteidigt werden müssen.
Eventuell können erste Zwischenergebnisse bereits auf der nächsten HANNOVER MESSE präsentiert werden.
Aussteller zum Thema
Interesse an News zu Ausstellern, Top-Angeboten und den Trends der Branche?
Browser Hinweis
Ihr Webbrowser ist veraltet. Aktualisieren Sie Ihren Browser für mehr Sicherheit, Geschwindigkeit und eine optimale Darstellung dieser Seite.
Browser aktualisieren