Kategorie
Kontakt
Agentic AI – Was Unternehmen wissen müssen
ChatGPT beantwortet Fragen. Generative AI schreibt Texte und erzeugt Bilder. Agentic AI geht einen Schritt weiter: Sie handelt. Sie plant mehrstufige Aufgaben, trifft Entscheidungen, greift auf Werkzeuge zu und führt Prozesse eigenständig aus – ohne dass ein Mensch jeden einzelnen Schritt auslösen muss. Das ist der Unterschied, der Agentic AI zur vielleicht wichtigsten KI-Entwicklung für Unternehmen macht – und gleichzeitig zur riskantesten.
Gartner stuft Agentic AI seit 2025 als strategischen Top-Trend ein und prognostiziert, dass bis Ende 2026 rund 40 % aller Unternehmensanwendungen mit KI-Agenten ausgestattet sein werden. Gleichzeitig warnt dasselbe Analystenhaus: Über 40 % der Agentic-AI-Projekte werden bis 2027 eingestellt – wegen explodierender Kosten, unklarem Business Value oder fehlender Risikokontrollen. Diese Spannung zwischen Potenzial und Risiko ist der rote Faden dieses Artikels.
Was ist Agentic AI – und was nicht?
Um Agentic AI zu verstehen, hilft ein Vergleich mit dem, was die meisten Unternehmen heute nutzen:
Klassische KI (regelbasiert): Führt vordefinierte Aufgaben aus. Wenn Bedingung X, dann Aktion Y. Kein Lernen, keine Flexibilität. Beispiel: ein Spam-Filter.
Generative AI (reaktiv): Erzeugt Inhalte auf Anfrage – Text, Code, Bilder. Reagiert auf einen Prompt, kann aber nicht eigenständig handeln. Beispiel: ChatGPT, das eine E-Mail formuliert, wenn Sie es darum bitten.
Agentic AI (autonom): Verfolgt Ziele. Sie zerlegt eine komplexe Aufgabe in Teilschritte, entscheidet, welche Werkzeuge sie nutzt (Datenbanken abfragen, APIs aufrufen, Berechnungen durchführen), führt die Schritte aus und passt ihren Plan an, wenn etwas nicht funktioniert. Beispiel: Ein KI-Agent, der selbständig eine Anomalie in Maschinendaten erkennt, die Ursache analysiert, einen Wartungsauftrag erstellt und den Techniker einplant.
Der entscheidende Unterschied: Generative AI produziert Ausgaben. Agentic AI produziert Ergebnisse – sie tut etwas in der realen Welt. Sie greift in Systeme ein, löst Prozesse aus und trifft Entscheidungen, die Konsequenzen haben.
Die technische Grundlage bilden grosse Sprachmodelle (LLMs), die mit Werkzeugen (Tool Use), Gedächtnis (Memory) und Planungsfähigkeiten (Reasoning) ausgestattet werden. Technologien wie RAG (Retrieval Augmented Generation) sorgen dafür, dass die Agenten auf unternehmensspezifisches Wissen zugreifen können, statt nur auf ihr Trainingsmaterial.
Die sechs Interaktionsmodi – Mensch und KI-Agent im Zusammenspiel
Wie viel Autonomie soll ein KI-Agent bekommen? Das ist die zentrale Designentscheidung, die über Erfolg oder Scheitern entscheidet. Forschende der ZHAW Zürcher Hochschule für Angewandte Wissenschaften haben dazu eine praxisorientierte Taxonomie entwickelt, die sechs Interaktionsmodi beschreibt – von maximaler menschlicher Kontrolle bis zur vollen Autonomie (Wulf, Meierhofer & Hannich, 2025: Architecting Human-AI Cocreation for Technical Services).
Diese Taxonomie ist deshalb so wertvoll, weil sie die abstrakte Frage «Wie viel Autonomie?» in konkrete Architekturentscheidungen übersetzt. Wir bei Substring verwenden dieses Modell als hilfreiches Navigationswerkzeug bei der Auswahl des geeigneten Interaktionsmodus für eine Automatisierung:
1. Human-Augmented Model (HAM) – Der Mensch handelt, die KI unterstützt
Die KI liefert Informationen, Vorschläge und Zusammenfassungen – aber der Mensch behält die volle Kontrolle über alle Entscheidungen und Aktionen. Die KI ist ein passiver Assistent, der dem Experten Wissen zuliefert.
Beispiel: Ein Servicetechniker diagnostiziert eine Maschinenstörung. Die KI zeigt ihm relevante Wissensartikel, ähnliche Störfälle aus der Vergangenheit und schlägt Diagnosefragen vor – aber der Techniker entscheidet selbst, was er tut.
Wann sinnvoll: Bei komplexen, einzigartigen Problemen, die Expertenwissen erfordern. Bei neuen Prozessen, in denen die KI noch wenig Erfahrung hat.
2. Human-in-Command (HIC) – Die KI entwirft, der Mensch genehmigt
Die KI übernimmt die Vorarbeit: Sie sammelt Daten, analysiert die Situation und formuliert einen vollständigen Lösungsvorschlag. Aber bevor irgendetwas passiert, muss ein Mensch den Vorschlag prüfen und explizit freigeben.
Beispiel: Ein KI-Agent analysiert eine Kundenanfrage im technischen Support, recherchiert in der Wissensdatenbank und formuliert eine vollständige Antwort. Der Servicemitarbeiter prüft die Antwort, passt sie bei Bedarf an und sendet sie ab.
Wann sinnvoll: Bei kundennahen Prozessen, bei denen Fehler direkte Auswirkungen auf die Kundenbeziehung haben. Bei regulierten Bereichen, in denen ein Mensch nachweislich entschieden haben muss.
3. Human-in-the-Process (HITP) – Geteilter Prozess, feste Rollen
Der Prozess ist weitgehend automatisiert, enthält aber vordefinierte Schritte, die ein Mensch ausführen muss. Der Mensch ist kein Kontrolleur, sondern ein integraler Bestandteil des Workflows – er übernimmt die Aufgaben, die die KI nicht kann oder nicht darf.
Beispiel: Ein KI-Agent erkennt eine Anomalie an einer Industrieanlage, erstellt automatisch ein Ticket und sammelt alle relevanten Sensordaten. Dann wird der Prozess an einen Service-Manager übergeben, der die Entsendung eines Technikers genehmigt – eine Entscheidung, die strategisches Urteilsvermögen über Kosten und Geschäftsauswirkungen erfordert. Nach der Genehmigung übernimmt die KI wieder und plant die Logistik.
Wann sinnvoll: Bei Prozessen, die sowohl Automatisierung als auch menschliches Urteilsvermögen an definierten Punkten erfordern – typisch für Industrieunternehmen und ÖV-Unternehmen.
4. Human-in-the-Loop (HITL) – Autonomie mit Notbremse
Die KI arbeitet eigenständig, erkennt aber ihre eigenen Grenzen. Wenn ihre Konfidenz unter einen definierten Schwellenwert fällt – zum Beispiel bei einer mehrdeutigen Fehlermeldung – eskaliert sie automatisch an einen menschlichen Experten.
Beispiel: Ein virtueller Agent bearbeitet technische Support-Anfragen. Standardfragen (Fehlercodes, Reset-Anleitungen) erledigt er autonom. Wenn ein Techniker aber «ein lautes Schleifen aus dem Gehäuse» beschreibt, fällt die Konfidenz – der Agent übergibt die Konversation samt komplettem Verlauf an einen menschlichen Experten.
Wann sinnvoll: Für hohe Volumen mit klar abgrenzbaren Standard- und Ausnahmefällen – zum Beispiel im First-Level-Support.
5. Human-on-the-Loop (HOTL) – Autonomie mit Überwachung
Die KI führt den gesamten Prozess eigenständig aus. Ein Mensch beobachtet die KI über ein Dashboard und kann jederzeit eingreifen – muss es aber nicht. Der Eingriff erfolgt nach menschlichem Ermessen, nicht auf Anfrage der KI.
Beispiel: Ein KI-Agent bearbeitet Kundenanfragen vollständig autonom. Ein Supervisor sieht in Echtzeit die Konversationen, Sentiment-Scores und Eskalationsraten. Wenn er eine problematische Interaktion bemerkt, kann er die Konversation an einen menschlichen Mitarbeiter übergeben.
Wann sinnvoll: Für Prozesse mit geringem Risiko und hohem Volumen, bei denen gelegentliche Fehler tolerierbar sind und schnell korrigiert werden können.
6. Human-Out-of-the-Loop (HOOTL) – Volle Autonomie
Die KI handelt vollständig ohne menschliche Beteiligung. Vom Erkennen des Problems über die Entscheidung bis zur Ausführung – kein Mensch ist involviert.
Beispiel: IoT-Sensoren erkennen erhöhte Vibrationen an einer Maschine. Die KI analysiert die Daten, prognostiziert den Ausfall, erstellt automatisch einen Wartungsauftrag und plant den Techniker ein – ohne dass irgendjemand informiert oder gefragt wird.
Wann sinnvoll: Nur für hochstandardisierte, vorhersagbare Prozesse mit geringem Risiko und extrem zuverlässiger KI. In der Praxis heute die Ausnahme, nicht die Regel.
Praxisbeispiel: Predictive Maintenance – vom Risiko zur sicheren Architektur
Ein konkretes Beispiel aus der Industrie zeigt, warum die Wahl des Interaktionsmodus entscheidend ist – und warum «so autonom wie möglich» nicht immer die beste Antwort ist.
Szenario: Kippschalensorter in einer Paketsortieranlage
Ein grosses Logistikunternehmen betreibt Paketsortieranlagen, die mehrere hunderttausend Pakete pro Tag verarbeiten. Ungeplante Ausfälle der Kippschalensorter führen zu Paketstau, Nacharbeit und verspäteten Zustellungen. Das Unternehmen setzt IoT-Sensoren ein, die Vibrationen, Temperaturen und Motorströme der Sortierer messen.
Beispiel 1: HOOTL – Volle Autonomie (das Risiko)
In der ersten Iteration wird ein KI-Agent vollständig autonom eingesetzt (HOOTL-Modus):
Der Agent überwacht die Sensordaten in Echtzeit. Bei einer prognostizierten Anomalie erstellt er selbständig einen Wartungsauftrag, bestellt Ersatzteile und plant den Techniker ein. Kein Mensch wird informiert, bis der Techniker den Auftrag auf seinem Tablet sieht.
Was schiefgeht: Der Agent erkennt ein ungewöhnliches Vibrationsmuster und klassifiziert es als «Lagerschaden – Austausch innerhalb von 48 Stunden empfohlen». Er stoppt den Sortierer vorsorglich, bestellt ein neues Lager und plant den Techniker für den nächsten Tag ein. Problem: Das Vibrationsmuster war kein Lagerschaden, sondern ein falsch eingelegtes Paket, das sich verklemmt hatte – eine Situation, die ein erfahrener Wartungstechniker in 30 Sekunden erkannt und behoben hätte. Der Sortierer steht aber bereits still, das Ersatzteil ist bestellt, der Techniker unterwegs. Kosten: mehrere Stunden Stillstand, unnötige Ersatzteilkosten und ein Vertrauensverlust beim Betriebsteam.
Das Grundproblem: Der KI-Agent hat kein physisches Verständnis. Er sieht Daten, keine Maschinen. Und die Konsequenzen seines Handelns – Produktionsstopp, Kosten, Logistik – sind in der realen Welt gravierend. Halluzinationen und Fehlklassifikationen, die bei textbasierter KI ärgerlich sind, werden bei operativen Entscheidungen teuer und potentiell gefährlich.
Beispiel 2: HIC – Die KI schlägt vor, der Mensch entscheidet (die sichere Variante)
In der überarbeiteten Architektur wird auf den Human-in-Command-Modus (HIC) umgestellt:
Der Agent überwacht weiterhin die Sensordaten und erkennt Anomalien. Aber statt selbst zu handeln, erstellt er einen Diagnosevorschlag: «Erhöhte Vibration an Sortierer 7, Station 14. Analyse: 73 % Wahrscheinlichkeit Lagerverschleiss, 22 % mechanische Blockade, 5 % Sensorartefakt. Empfehlung: Visuelle Inspektion innerhalb 24 Stunden.
Der Wartungsleiter prüft den Vorschlag. Er sieht, dass die Vibration plötzlich aufgetreten ist – was eher für eine Blockade als für schleichenden Verschleiss spricht. Er schickt einen Techniker für eine Sichtprüfung, statt sofort Ersatzteile zu bestellen. Ergebnis: Verklemmtes Paket, Behebung in Minuten, kein Stillstand.
Beispiel 3: HAM für neue Szenarien, HIC für bekannte Muster (das Zielmodell)
In der finalen Architektur werden die Modi situationsabhängig eingesetzt:
Bekannte Muster (z. B. schleichend steigende Temperaturen, die historisch immer auf Lagerverschleiss hindeuten): HIC-Modus. Die KI erstellt einen vollständigen Wartungsvorschlag. Der Wartungsleiter genehmigt mit einem Klick.
Neue oder mehrdeutige Muster (z. B. plötzliche Vibrationsänderungen, unbekannte Sensorkombinationen): HAM-Modus. Die KI liefert Analysedaten, ähnliche Fälle und Wahrscheinlichkeiten – aber der Experte entscheidet den Diagnoseweg.
Routine-Wartung (z. B. alle 5'000 Betriebsstunden Schmierung): HITP-Modus. Die KI plant den Termin und die Logistik autonom, aber der Wartungsleiter genehmigt den konkreten Zeitslot (weil er die Produktionsplanung kennt).
Dieses abgestufte Modell entspricht exakt der Empfehlung der ZHAW-Forschenden: «Der Grad der menschlichen Kontrolle sollte sich nach der Höhe des Risikos, der Aufgabenkomplexität und der Systemzuverlässigkeit richten» (Wulf et al., 2025). Ein einzelner «richtiger» Modus gibt es nicht – die Kunst liegt in der architektonisch sauberen Kombination.
Anwendungsfälle für Schweizer Unternehmen
Industrie und Logistik
Predictive Maintenance: KI-Agenten überwachen Maschinendaten (Vibration, Temperatur, Stromaufnahme), prognostizieren Ausfälle und erstellen Wartungsvorschläge – im HIC-Modus mit menschlicher Freigabe. Besonders relevant für produzierende Unternehmen mit teuren Anlagen und hohen Ausfallkosten.
Qualitätskontrolle: KI-Agenten analysieren Bilddaten aus der Produktion, erkennen Defekte und entscheiden, ob ein Teil nachbearbeitet oder ausgeschleust wird. Bei eindeutigen Defekten autonom (HOTL), bei Grenzfällen mit menschlicher Prüfung (HIC).
Supply-Chain-Optimierung: Agenten überwachen Lagerbestände, Lieferzeiten und Nachfrageprognosen. Sie schlagen Bestellungen vor (HIC) oder lösen Nachbestellungen bei unkritischen Verbrauchsmaterialien selbständig aus (HITP mit Budgetlimits).
Öffentlicher Verkehr
Fahrzeugüberwachung: KI-Agenten analysieren Sensordaten von Schienenfahrzeugen – Fahrwerke, Bremsen, Türsysteme – und prognostizieren Wartungsbedarf. Im ÖV besonders relevant, weil ungeplante Ausfälle direkt den Fahrplan und tausende Fahrgäste betreffen.
Fahrgastkommunikation: Agenten beantworten Fahrgastanfragen zu Fahrplänen, Verspätungen und Tarifen – im HITL-Modus: Standardfragen autonom, komplexe Beschwerden mit Eskalation an menschliche Mitarbeiter.
Lärmmonitoring: Agenten analysieren Daten von Lärmsensoren entlang von Tramstrecken und korrelieren sie mit Gleiszustand und Wetterdaten. Bei Überschreitung von Grenzwerten wird automatisch ein Massnahmenvorschlag generiert (HIC).
Öffentliche Verwaltung
Bürgeranfragen: KI-Agenten beantworten Anfragen zu Formularen, Zuständigkeiten und Fristen – im HITL-Modus mit automatischer Eskalation bei rechtlich sensiblen oder komplexen Fällen.
Dokumentenverarbeitung: Agenten klassifizieren eingehende Dokumente, extrahieren relevante Daten und ordnen sie dem richtigen Dossier zu – im HIC-Modus: die KI schlägt vor, der Sachbearbeiter bestätigt.
Datenqualitäts-Überwachung: Agenten prüfen kontinuierlich die Datenqualität in Fachapplikationen und melden Anomalien (fehlende Felder, unplausible Werte, Duplikate) an die zuständige Stelle – eine Data-Governance-Aufgabe, die ohne Automatisierung kaum leistbar ist.
Ist Agentic AI gefährlich? Eine kritische Bewertung
Die ehrliche Antwort: Es kommt auf die Architektur an. Agentic AI ist nicht per se gefährlich – aber falsch eingesetzte Agentic AI ist es. Die Risiken lassen sich in drei Kategorien einteilen:
1. Halluzinationen mit Konsequenzen
Wenn ein ChatBot halluziniert – also falsche Informationen als Fakten präsentiert – ist das ärgerlich. Wenn ein KI-Agent halluziniert und daraufhin handelt (eine Maschine stoppt, ein Ersatzteil bestellt, eine Kundenantwort sendet), hat das reale Konsequenzen: Kosten, Stillstand, Vertrauensverlust. Das Risiko ist nicht theoretisch. Die Forschung zeigt klar, dass LLMs zu «operationeller Sprödigkeit» (operational brittleness) neigen – sie funktionieren in vielen Fälle gut und scheitern in den restlichen auf unvorhersehbare Weise (Wulf et al., 2025).
Mitigation: Kein HOOTL-Modus für Entscheidungen mit hohen Konsequenzen. Konfidenz-Schwellenwerte definieren. Menschliche Freigabe bei unsicheren Situationen (HIC oder HITL).
2. Kontrollverlust und «Agent Drift»
KI-Agenten, die eigenständig planen, können von ihrem ursprünglichen Ziel abweichen – besonders in komplexen, mehrstufigen Prozessen. Ein Agent, der «Kundenzufriedenheit maximieren» soll, könnte lernen, grosszügige Rabatte zu vergeben, weil das kurzfristig die Zufriedenheit steigert – aber dem Unternehmen schadet. Gartner warnt vor «Agent Washing» – dem Rebranding einfacher Automatisierung als Agentic AI, ohne echte autonome Planungsfähigkeiten. Das Ergebnis: Systeme, die weder zuverlässig autonom noch sinnvoll überwacht sind.
Mitigation: Klare Handlungsgrenzen (Guardrails) definieren. Budget- und Entscheidungslimits. Regelmässiges Monitoring der Agent-Entscheidungen (HOTL-Dashboard). Audit-Trail für jede Aktion.
3. Sicherheit und Datenschutz
KI-Agenten, die auf Unternehmenssysteme zugreifen (ERP, CRM, Datenbanken), sind ein neues Angriffsziel. Gartner identifiziert den Aufstieg von KI-Agenten als eine der grössten Herausforderungen für Identity- und Access-Management (IAM). Wer hat Zugriff? Welche Aktionen sind erlaubt? Wie wird sichergestellt, dass ein Agent nur die Daten sieht, die er braucht?
Für Schweizer Unternehmen kommt die regulatorische Dimension hinzu: Das neue Datenschutzgesetz (DSG) und für internationale Unternehmen die EU-DSGVO erfordern Nachvollziehbarkeit bei automatisierten Entscheidungen. Der EU AI Act, dessen High-Risk-Pflichten ab August 2026 greifen, wird Agentic-AI-Systeme in vielen Branchen als Hochrisiko-Anwendungen einstufen.
Mitigation: Rollen- und rechtebasierter Zugriff für Agenten – genau wie für menschliche Mitarbeiter. Audit-Logs. Datenminimierung. Regelmässige Sicherheitsüberprüfungen.
Unsere Kernbotschaft
Agentic AI ist kein Allheilmittel und kein Selbstzweck. Es ist ein Werkzeug, das bei richtigem Einsatz enorme Effizienzgewinne bringt – und bei falschem Einsatz teuer und gefährlich werden kann. Die ZHAW-Forschenden bringen es auf den Punkt: Der Grad der Autonomie muss sich nach der Aufgabenkomplexität, dem operationellen Risiko und der Systemzuverlässigkeit richten (Wulf et al., 2025). Oder in der Sprache eines Schweizer Industrieunternehmens: «Klein anfangen, Erfahrungen sammeln, Kontrolle behalten – und erst dann mehr Autonomie geben.»
Voraussetzungen: Bevor Agentic AI funktionieren kann
Agentic AI ist die Spitze der Pyramide – sie steht auf einem Fundament, das zuerst gebaut werden muss:
1. Eine solide Datenplattform. KI-Agenten brauchen Zugang zu sauberen, aktuellen, integrierten Daten. Wenn die Maschinendaten in Excel-Tabellen liegen, die Kundendaten im CRM und die Lagerbestände in SAP – ohne eine zentrale Datenplattform, die diese Silos verbindet – kann kein Agent sinnvoll arbeiten. Ob diese Plattform auf Microsoft Fabric, einer Open-Source-Architektur oder einer hybriden Lösung basiert, ist sekundär – entscheidend ist, dass sie existiert.
2. Data Governance. Wer darf welche Daten sehen? Wie aktuell sind sie? Wie ist die Datenqualität? Ohne Governance wird der Agent auf schlechten Daten operieren – und schlechte Entscheidungen treffen.
3. Eine Datenstrategie. Welche Use Cases haben den höchsten Wert? Wo ist das Risiko tragbar? Wo ist die Datenqualität ausreichend? Ohne Strategie wird Agentic AI zum teuren Experiment ohne ROI – eines jener 40 % der Projekte, die laut Gartner scheitern.
4. Ein Data Team oder ein Partner. Agentic-AI-Systeme müssen entwickelt, integriert, überwacht und kontinuierlich verbessert werden. MLOps-Prozesse, Monitoring-Dashboards, Feedback-Loops – das erfordert Data-Engineering- und ML-Kompetenz.
Wie Substring Sie unterstützt
Substring unterstützt Schweizer Unternehmen auf dem Weg zu Agentic AI – nicht als isoliertes KI-Projekt, sondern als Teil einer durchdachten Datenstrategie.
Beratung und Strategie: Gemeinsam identifizieren wir die Use Cases, bei denen Agentic AI den grössten Wert bringt – und den richtigen Interaktionsmodus (HAM, HIC, HITL). Das beginnt mit einer Datenlandkarte und einer Reifegradanalyse: Wo steht Ihr Unternehmen heute, und welche Schritte braucht es bis zum ersten KI-Agenten?
Datenplattform: Agentic AI braucht ein Datenfundament. Wir bauen die Datenplattform, die Ihre KI-Agenten mit den richtigen Daten versorgt – ob auf Microsoft Fabric, einer Open-Source-Architektur (NiFi, Airflow, dbt, Trino) oder einer hybriden Lösung.
Künstliche Intelligenz: Von der klassischen Data Science über RAG-Systeme bis hin zu Agentic-AI-Architekturen: Wir entwickeln KI-Lösungen, die im Unternehmensalltag funktionieren – mit menschlicher Kontrolle, Governance und Audit-Trail. Unsere Erfahrung mit LLM-basierten Lösungen – etwa die Felddaten-Klassifikation für V-ZUG mit RAG – bildet die Grundlage für agentic Erweiterungen.
Operative Datensysteme: Agentic AI ist letztlich ein operatives System, das in bestehende Prozesse integriert werden muss – ERP, MES, CRM, Ticketing. Wir stellen sicher, dass die KI-Agenten nicht in einem Silo arbeiten, sondern mit Ihren bestehenden Systemen verbunden sind.
Data Engineering: Die Pipelines, die Daten von Ihren Quellsystemen in die KI bringen, müssen robust, aktuell und überwacht sein. Wir setzen Data Pipelines auf, die als Datenfundament für Ihre KI-Agenten dienen.
→ Kontakt aufnehmen – wir helfen Ihnen, Agentic AI richtig einzusetzen: mit Strategie, Datenfundament und der richtigen Dosis Autonomie.
Literatur
Wulf, J., Meierhofer, J. & Hannich, F. (2025). Architecting Human-AI Cocreation for Technical Services – Interaction Modes and Contingency Factors. ZHAW Zürcher Hochschule für Angewandte Wissenschaften. → Volltext (PDF)
Weiterführende Glossar-Artikel
- Was ist Generative AI? – LLMs, GPT, Claude und ihre Einsatzgebiete
- Was ist RAG? – Retrieval Augmented Generation: KI auf eigenen Daten
- Was ist MLOps? – KI-Modelle in Produktion bringen und betreiben
- Was ist Data Science? – Grundlagen der Datenanalyse mit ML
- Predictive Maintenance – Vorausschauende Wartung in der Praxis
- Microsoft Fabric für Industrieunternehmen – Datenplattform als KI-Fundament
- Open-Source-Datenarchitektur – Der Stack ohne Vendor Lock-in
- Datenplattform-Vergleich – Fabric vs. Databricks vs. Snowflake vs. Open Source
- Data Governance – Spielregeln für Daten
- Datenstrategie erstellen – Der erste Schritt
- Datenlandkarte erstellen – Überblick über die eigene Datenlandschaft
- Power BI Best Practices – BI als Grundlage für KI-Insights