KI ist manchmal gar nicht so intelligent
Nicht alle künstlichen Intelligenzen (KI) treffen ihre Entscheidungen tatsächlich intelligent. Manche Systeme sind deshalb für den praktischen Einsatz ungeeignet – und können in sicherheitskritischen Bereichen sogar gefährlich werden.
Teilen
Zu diesem Ergebnis kommen Wissenschaftler der TU Berlin, des Fraunhofer Heinrich-Hertz-Instituts und der Universität Singapur nach der Analyse bestehender KI-Systeme. Dafür nutzten sie eine eigens entwickelte Technik, die herausfinden kann, aufgrund welcher Kriterien die Systeme Entscheidungen treffen. Es zeigte sich, dass manche KI-Systeme lediglich sogenannte „Clever-Hans-Strategien“ nutzten. Diese sind nach einem Pferd benannt, das angeblich rechnen konnte, tatsächlich aber die richtige Antwort meist aus der Reaktion der Fragesteller ablas. Ähnlich wie „Clever Hans“ können manche KI-Systeme beispielsweise recht gut Objekte Kategorien zuordnen, ohne die Objekte tatsächlich als solche erkannt zu haben. Den Wissenschaftlern zufolge sind solche Systeme „für den praktischen Einsatz völlig unbrauchbar“ – erst recht in sicherheitskritischen Bereichen. Die Forscher plädieren daher für eine systematische Überprüfung eingesetzter KI-Systeme.
KI – sofern sie sicher ist – kann fertigenden Unternehmen an vielen Stellen helfen. Die VDI-Nachrichten stellen ein israelisches Startup als Beispiel vor. Mit Methoden der KI analysiert es den Datenverkehr in Produktionsnetzen, um so etwaige Cyberangriffe frühzeitig zu erkennen.
Aussteller zum Thema
Interesse an News zu Ausstellern, Top-Angeboten und den Trends der Branche?
Browser Hinweis
Ihr Webbrowser ist veraltet. Aktualisieren Sie Ihren Browser für mehr Sicherheit, Geschwindigkeit und eine optimale Darstellung dieser Seite.
Browser aktualisieren