„Es gibt kein KI-System, das wir nicht dazu zwingen können, das zu tun, was wir wollen.“

Mit diesem Satz eröffnete Mirko Ross, Cybersicherheitsforscher, Hacker und Gründer des Stuttgarter Start-ups Asvin, seinen Vortrag auf der EMO in Hannover – und setzte damit den Ton für eine Debatte, die so profan wie existenziell ist: Wer KI-Modelle besitzt, besitzt einen Wettbewerbsvorteil. Wer aber nicht dafür sorgt, dass dieses Vermögen geschützt ist, wird ihn verlieren.

Je schneller KI in Fabriken, Maschinen und Fertigungsprozesse einzieht, desto deutlicher verlagert sich das Know-how der Industrie. „Das eigentliche Kapital steckt nicht mehr nur in Stahl und Software, sondern in den Trainingsdaten und Modellen – den digitalen Rezepturen für gute Produktionsergebnisse“, sagt Ross. Wer diese Daten verliert, verliert sein geistiges Eigentum.

Wissen, das Millionen wert ist

Wie real dieses Risiko ist, beschreibt Klaus Bauer, Head of Research beim Maschinenbauer TRUMPF. Das Unternehmen ist Weltmarktführer in der Blechbearbeitung und hat über Jahre Millionen an Maschinenstunden, Prüfserien und Messdaten investiert, um ein KI-Modell zu entwickeln, das Laserschneidprozesse optimiert. „Unsere KI hilft Maschinenbedienern, perfekte Schnittkanten zu erzielen, ohne jahrelange Erfahrung. Das spart Zeit, Material und Kosten – und macht unsere Maschinen effizienter als jede Konkurrenz“, sagt Bauer.

Doch gerade weil das Modell so leistungsfähig ist, ist es auch ein Ziel. „Wenn jemand dieses Modell kopiert, hat er unseren Vorsprung – ohne den Aufwand“, warnt Bauer. TRUMPF arbeitet daher mit Ross und weiteren Partnern an einem gemeinsamen Schutzprojekt: „KI Fogger“.

Angriff als Verteidigung

Das Prinzip klingt paradox: Ross nutzt Techniken, die sonst Angreifer einsetzen – und dreht sie um. Zwei Methoden stehen im Zentrum: Backdooring und Data Poisoning.

„Beim Backdooring wird ein Modell so manipuliert, dass es auf einen geheimen Schlüssel reagiert – ein digitaler Hintereingang, den Außenstehende nicht erkennen“, erklärt Ross.

Beim Data Poisoning dagegen werden während des Trainings gezielt manipulierte Daten eingeschleust, um das Verhalten des Modells zu verändern. „Normalerweise ist das gefährlich. Wir machen daraus ein Schutzschild.“

Im Projekt KI Fogger werden diese Methoden kombiniert – nicht zum Angriff, sondern zur Tarnung.

„Wir fügen dem Modell kontrolliertes Rauschen hinzu, das nur wir entschlüsseln können“, sagt Ross. „Wer das Modell stiehlt, bekommt wertlosen Schrott. Wer den Schlüssel hat, bekommt Präzision.“

Konkret bedeutet das:

Ein TRUMPF-Bediener wählt am Maschinenpanel das gewünschte Ergebnis – etwa eine besonders feine Schnittkante. Nur autorisierte Anfragen lösen das echte Modellverhalten aus. Ein Unbefugter, der die KI kopiert oder abfragt, erhält nutzlose Parameterempfehlungen.

Ob der „KI Fogger“ zum Standard der Industrie wird, hängt nun vom Erfolg des Projekts ab. Doch die Richtung ist klar: Die Fabrik der Zukunft besteht nicht nur aus Stahl, Robotern und Lasern – sondern aus Daten und KI-Modellen, die unsichtbar sind und dennoch verteidigt werden müssen.

Eventuell können erste Zwischenergebnisse bereits auf der nächsten HANNOVER MESSE präsentiert werden.