Aussteller & Produkte
Events & Speakers

1. Der AI Act definiert sogenannte “High-Risk AI”. Dazu zählen aus industrieller Sicht medizinische Geräte, Fahrzeuge, HR-Software, Banking-Applikationen, Ausbildungstools, Produkte für die kritische Infrastruktur und mit Safety-Bezug. Die Anforderungen gelten für Anbieter und Anwender von High Risk AI Applikationen.

2. Auf die Unternehmen, die im High-Risk AI-Bereich unterwegs sind, wird es einen Zertifizierungsprozess geben müssen. Es geht um Data Governance, Transparenz, Robustness, Cyber Security, Risk- und Quality-Management. Die Anwendungen werden dann in einer öffentlichen Datenbank gespeichert.

3. Ausgenommen vom AI Act sind Anwendungen im Bereich Verteidigung und nationale Sicherheit sowie in der Forschung und teilweise Open Source Ansätze.

4. Foundation Modelle müssen Transparenz liefern. Es geht um eine technische Dokumentation, die Trainingsdaten, das Urheberrecht und das geistige Eigentum.

5. Generative KI muss sich gegenüber dem Menschen erkennbar machen. Es muss für den User erkennbar sein, dass ein Bild beispielsweise durch eine KI erstellt wurde. Transparenz gewinnt damit an Bedeutung.

6. Strafen: Bis zu 7 Prozent des Jahresumsatzes. Die Strafen staffeln sich nach der Schwere des Vergehens.

7. Jetzt müssen die Normungsgruppen, die Standardisierungsexperten in ihre Working Groups Leben in den AI Act bringen. Unternehmen wie Trustifai aus Österreich stehen schon bereit und sind sich sicher, dass sie schon im kommenden Jahr erste Zertifizierungen durchführen können.

Tipp: Applied AI sammelt seit einigen Monaten Use Cases und ordnet diese einem Risikofaktor zu. Die Datenbank gibt einen guten Überblick. Mehr dazu hier .