Daten entstehen über Jahre hinweg in Fachbereichen, Projekten und Systemen. Jedes System ist für sich sinnvoll, jedes Datenmodell lokal optimiert. Was fehlt, ist der gemeinsame Kontext:

  • Was genau ist ein Asset? Und ist es überall dasselbe?
  • Wann sind zwei Objekte gleich, ähnlich oder nur zufällig gleich benannt?
  • Wie hängen technische, organisatorische und fachliche Sichten zusammen?
  • Welche Regeln gelten implizit, und wo stehen sie geschrieben?
  • Die Antworten auf diese Fragen entscheiden darüber, ob Analysen reproduzierbar sind, ob Automatisierung möglich ist und ob KI-Systeme vertrauenswürdig arbeiten können. Hier kommt Semantik ins Spiel. Semantik bedeutet nicht „noch ein Datenmodell“. Sie macht Bedeutungen explizit und beschreibt Begriffe, Beziehungen, Regeln, Kontexte und deren Gültigkeit.

    In der Praxis sehen wir immer wieder, dass das semantische Defizit mit der Größe und Regulierung einer Organisation wächst. Entsprechend steigen auch die Folgekosten in Form von manueller Abstimmung, Sonderlogik, Ausnahmen und Unsicherheit.

    Warum klassische Datenarchitekturen nicht mehr ausreichen

    Viele Unternehmen haben auf diese Situation reagiert und Data Warehouses, Data Lakes, Data Mesh, Kataloge, oder Metadaten-Managements etabliert. Das sind wichtige Schritte. Jedoch lösen sie nur einen Teil des Problems. Denn klassische Architekturen beantworten vor allem:

  • Wo liegen Daten?
  • Wer darf sie nutzen?
  • Wie sind sie strukturiert?
  • Was sie nicht ausreichend beantworten:

  • Was bedeuten sie?
  • Wie hängen sie fachlich zusammen?
  • Welche Regeln gelten implizit – und sind sie konsistent?
  • Vor allem für fortgeschrittene Analysen, Automatisierung und KI wird das zum limitierenden Faktor. Ein modernes LLM oder ein KI-Agent kann zwar sehr gut Texte lesen, Pläne machen und Werkzeuge nutzen. Ohne explizite Semantik fehlt jedoch die Verlässlichkeit. Mit anderen Worten heißt das: Ohne Semantic Layer ist KI beeindruckend, aber nicht belastbar.

    Der Semantic Layer als fehlende Schicht

    Wir sind davon überzeugt, dass der Semantic Layer eine zentrale Schicht moderner Daten- und KI-Architekturen bildet. Nicht als monolithisches „Mastermodell“, sondern als lebendiges semantisches System. Diese Schicht besteht aus:

  • Ontologien, Taxonomien, Vokabularen;
  • Wissensgraphen;
  • Regeln und Bedingungen;
  • Referenzen auf Standards und Normen;
  • Verknüpfungen zwischen strukturierten und unstrukturierten Daten.
  • Der entscheidende Punkt dabei ist, dass der Semantic Layer menschliches Wissen mit maschineller Verwertbarkeit verbindet. Er ist also die Brücke zwischen Fachbereichen und IT, Dokumenten und Datenbanken, Regeln und Ausnahmen, sowie Vergangenheit (gewachsene Systeme) und Zukunft (Automatisierung).

    Doch genau hier stoßen viele Organisationen an ihre Grenzen.

    Denn Semantik ist oft aufwendig zu modellieren, schwer konsistent zu halten, stark domänenabhängig und historisch oft schlecht dokumentiert.

    An dieser Stelle kommt Agentic AI ins Spiel.

    Was hat Agentic AI mit Semantik zu tun?

    Agentic AI wird oft mit Autonomie, Planung und Tool-Nutzung beschrieben.

    Doch wir bei Alexander Thamm [at] sehen den eigentlichen Mehrwert von Agentic AI in etwas anderem: Sie kann semantische Arbeit skalieren.

    Konkret heißt das:

  • Agenten können große Dokumentenbestände analysieren und Begriffe extrahieren.
  • Sie können Datenstrukturen vergleichen, Muster erkennen und Inkonsistenzen markieren.
  • Sie können Vorschläge für Klassen, Relationen und Mappings generieren.
  • Sie können bestehende Daten-Modelle gegen Regeln prüfen und Abweichungen finden.
  • Sie können Auswirkungen von Änderungen in der Semantik simulieren.
  • Wichtig dabei ist: KI-Agenten ersetzen keine Fachentscheidungen. Stattdessen übernehmen sie die Arbeit, die Menschen schlecht skalieren können, also Massenanalyse, aufwendige Vorprüfung und ermüdende Konsistenzchecks.

    Damit verschiebt sich der Fokus für den Menschen weg von manueller Fleißarbeit und hin zu fachlicher Bewertung, Governance und Qualität.

    Der Semantic Layer der Zukunft ist agentisch

    Aus unserer Sicht entsteht hier ein neues Architekturprinzip: Der Semantic Layer der Zukunft wird ein Agent Mesh sein. Der Grund liegt auf der Hand, denn Semantik ist kein statisches Konstrukt. Begriffe verändern sich, Normen entwickeln sich weiter, Organisationen restrukturieren sich und Systeme kommen ebenso schnell hinzu, wie sie wieder verschwinden. Ein statischer Wissensgraph kann diese Dynamik nicht abbilden. Stattdessen braucht es ein Zusammenspiel spezialisierter Agenten: Agenten, die Modelle überwachen und neue Daten einordnen, Agenten, die Regeln prüfen und Inkonsistenzen sichtbar machen, sowie Agenten, die nachvollziehbare und überprüfbare Vorschläge unterbreiten. Nur ein solches lebendiges, agentenbasiertes System kann Semantik in Organisationen dauerhaft aktuell, konsistent und nutzbar halten.

    So wird der Semantic Layer aktiv statt passiv, prüfend statt nur beschreibend, und evolutionär statt einmalig modelliert. Deshalb gehören Agentic AI und Semantik untrennbar zusammen.

    Governance first – Sonst skaliert es nicht

    Ein Aspekt ist dabei zentral und wird häufig unterschätzt: Governance. Agenten, die an Semantik arbeiten, greifen tief in die Wissensbasis eines Unternehmens ein – und ohne klare Leitplanken kann das schnell riskant werden. Unsere Erfahrung zeigt deshalb immer wieder, dass Governance vor Autonomie stehen muss. Rollen, Freigaben und Qualitätsschranken müssen eindeutig definiert sein, und ein Human-in-the-Loop ist keine optionale Komfortfunktion, sondern Pflicht. Ebenso müssen Entscheidungen jederzeit erklärbar und auditierbar sein.

    Erst unter diesen Bedingungen entsteht echtes Vertrauen, intern wie extern.

    Fazit

    Viele Unternehmen stehen vor der Frage, wie sie KI produktiv, sicher und skalierbar in ihre Organisation bringen können. Unsere Antwort darauf ist klar: Ohne Semantik gibt es keine belastbare KI, und ohne Agenten keine skalierbare Semantik. Agentic AI und Semantic Layer sind daher keine getrennten Entwicklungen, sondern zwei Seiten derselben Medaille.

    Wer beides zusammendenkt, schafft belastbare Automatisierung, nachvollziehbare Entscheidungen und eine Wissensbasis, die gemeinsam mit der Organisation wächst.

    Genau daran arbeiten wir.

    Quellen

    1) Sequeda et al., Knowledge Graphs as a source of trust for LLM-powered systems (2025) https://www.sciencedirect.com/science/article/pii/S1570826824000441

    2) Jaber et al., AutoClimDS: Climate Data AI (arXiv 2025) https://arxiv.org/abs/2509.21553

    3) Peshevski et al., AI Agent-Driven KG Construction (arXiv 2025) https://www.arxiv.org/abs/2511.11017

    4) McGee et al., Enabling Ethical AI with Ontological Context (arXiv 2025) https://arxiv.org/abs/2512.04822

    5) Open Research Knowledge Graph: The Open Research Knowledge Graph (ORKG) aims to describe research papers in a structured manner. With the ORKG, papers are easier to find and compare. https://orkg.org/

    6) Semantic layer – Wikipedia (Def.)
    https://en.wikipedia.org/wiki/Semantic_layer?utm_source=chatgpt.com

    Über den Autor

    Dr. Andreas Kyek ist Data-Science- und KI-Experte mit über 25 Jahren Erfahrung in datengetriebener Produkt- und Prozessentwicklung. Mit seinem Physik-Background und seiner Tätigkeit in Führungsrollen (u. a. bei Infineon) verbindet er technologische Tiefe mit strategischer Umsetzung. Als Senior Principal Data Scientist und Practice Lead bei der Alexander Thamm [at] baut er die Data-Science- und AI-Praxis aus, mit Fokus auf agentischen KI-Systemen, Multi-Agent-Architekturen, semantische Wissensmodelle und RAG in komplexen Industrie-Setups. Er leitet großskalige Data-/AI-Initiativen (Industrie, Energie, Mobilität, Infrastruktur) und engagiert sich in Mentoring und Trainings für den verantwortungsvollen KI-Einsatz.