Kategorie
Kontakt
Power BI Best Practices für die Industrie | 12 Tipps
In vielen Industrieunternehmen ist Power BI bereits im Einsatz – oft mit gemischtem Erfolg. Es gibt Reports, die täglich in Schichtbesprechungen genutzt werden, und solche, die nach der Einführung nie wieder geöffnet wurden. Der Unterschied liegt selten an der Technologie. Er liegt an der Art, wie das Datenmodell aufgebaut, die KPIs definiert und die Dashboards gestaltet wurden.
Dieser Artikel fasst 12 Best Practices zusammen, die aus realen Industrieprojekten stammen – von der Datenplattform über das Datenmodell bis zum fertigen Dashboard. Der Fokus liegt auf produzierenden Unternehmen, die Power BI mit Daten aus ERP, MES und Sensorik verbinden wollen – idealerweise auf Microsoft Fabric als Plattform.
Industrie-KPIs für Power BI – nach Zielgruppe
Dashboard-Typen für Industrieunternehmen
Bevor Sie starten: Power BI ist kein Excel-Ersatz
Der häufigste Fehler: Teams überführen bestehende Excel-Reports eins zu eins in Power BI. Das Ergebnis sind Dashboards, die genauso unübersichtlich sind wie vorher – nur jetzt in der Cloud. Power BI funktioniert grundlegend anders als Excel. Es basiert auf einem analytischen Datenmodell mit Fakten- und Dimensionstabellen, nicht auf Zeilen und Spalten in einer Arbeitsmappe. Wer das versteht, baut bessere Reports. Wer es ignoriert, kämpft mit Performance, falschen Zahlen und frustrierten Nutzern.
Best Practice 1: Zuerst das Datenmodell, dann das Dashboard
Das Datenmodell ist das Fundament jedes Power-BI-Reports. Ein schlecht strukturiertes Modell führt zu langsamen Abfragen, falschen Aggregationen und Reports, die bei jeder neuen Anforderung umgebaut werden müssen.
Die Regel: Star Schema verwenden. Für Industrieunternehmen bedeutet das:
Eine Faktentabelle enthält die Messwerte: Produktionsmengen, Stillstandszeiten, Ausschusszahlen, Energieverbräuche. Jede Zeile ist ein Ereignis – ein Produktionsauftrag, eine Maschinenmeldung, ein Qualitätsprüfpunkt.
Dimensionstabellen beschreiben den Kontext: Maschine, Produkt, Schicht, Standort, Kalender. Sie sind über Schlüssel mit der Faktentabelle verbunden und ermöglichen das Filtern und Gruppieren.
Vermeiden Sie «breite Tabellen», in denen alles in einer einzigen Tabelle liegt. Sie funktionieren für einfache Fälle, scheitern aber, sobald mehrere Datumsbezüge (Auftragsdatum, Lieferdatum, Prüfdatum) oder mehrere Faktentabellen ins Spiel kommen.
Praxis-Tipp: Erstellen Sie eine dedizierte Kalender-Dimensionstabelle mit Jahr, Quartal, Monat, Kalenderwoche, Schicht. Deaktivieren Sie die Auto-Time-Intelligence-Funktion in Power BI Desktop – sie erzeugt versteckte Datumstabellen für jede Datumsspalte und bläht das Modell unnötig auf.
Best Practice 2: KPIs definieren, bevor das Dashboard gebaut wird
Ein Dashboard ohne klare KPI-Definition ist Dekoration. Definieren Sie pro Zielgruppe (Geschäftsleitung, Produktionsleitung, Schichtleiter, Qualität) die fünf bis zehn wichtigsten Kennzahlen – nicht mehr.
→ Vergleichstabelle: Industrie-KPIs nach Zielgruppe (siehe Tabelle 1 oben)
Jede KPI braucht eine eindeutige Definition: Formel, Datenquelle, Aggregationsebene, Aktualisierungsfrequenz. Ohne das berechnen zwei Abteilungen die Ausschussrate unterschiedlich – und das Vertrauen in die Daten ist zerstört.
Praxis-Tipp: Dokumentieren Sie KPI-Definitionen in einem zentralen Dokument oder in Power BIs eigenem Beschreibungsfeld für Measures. Wenn ein Nutzer mit der Maus über eine Kennzahl fährt, sollte er sehen, was sie bedeutet.
Best Practice 3: Daten in der Quelle bereinigen – nicht in Power BI
Power BI kann Daten transformieren (Power Query / M), aber es sollte nicht das primäre ETL-Tool sein. Für Industrieunternehmen mit mehreren Datenquellen (ERP, MES, Sensorik, Qualitätssystem) gilt:
Bereinigung und Transformation gehören in die Data Pipeline – idealerweise mit dbt auf Microsoft Fabric. Dort werden Daten in der Bronze-Silber-Gold-Architektur bereinigt, dedupliziert und geschäftsfertig aufbereitet. Power BI greift dann auf die Gold-Schicht zu – saubere, verlässliche Daten.
Warum? Weil Power Query Transformationen bei jedem Refresh erneut laufen und das Modell verlangsamen. Weil Transformationslogik, die in einzelnen .pbix-Dateien steckt, nicht wiederverwendbar ist. Und weil Änderungen an der Datenbereinigung bei einem zentralen ETL-Tool einmal gemacht werden – nicht in jedem einzelnen Report.
Praxis-Tipp: Nutzen Sie Power Query nur für einfache, reportspezifische Anpassungen (Spalte umbenennen, Filterung). Alles andere gehört in dbt oder Azure Data Factory.
Best Practice 4: Explizite Measures statt impliziter Aggregationen
In Power BI können Spalten direkt in Visuals gezogen werden – Power BI aggregiert sie automatisch (Summe, Durchschnitt). Das ist bequem, aber gefährlich: Die Aggregation ist nicht dokumentiert, nicht wiederverwendbar und funktioniert nicht mit komplexeren Berechnungen.
Die Regel: Erstellen Sie für jede Kennzahl ein explizites DAX-Measure. Beispiel für eine OEE-Berechnung:
Verfügbarkeit =
DIVIDE(
SUM(Produktion[Laufzeit_Minuten]),
SUM(Produktion[Geplante_Produktionszeit_Minuten]),
0
)
Leistung =
DIVIDE(
SUM(Produktion[Ist_Stückzahl]),
SUM(Produktion[Soll_Stückzahl]),
0
)
Qualität =
DIVIDE(
SUM(Produktion[Gut_Stückzahl]),
SUM(Produktion[Ist_Stückzahl]),
0
)
OEE = [Verfügbarkeit] * [Leistung] * [Qualität]
Praxis-Tipp: Organisieren Sie Measures in Ordnern (Display Folders) – etwa «OEE», «Qualität», «Logistik». Verstecken Sie Hilfsspalten und Beziehungschlüssel, die Endnutzer nicht brauchen. Ein aufgeräumtes Modell wird häufiger genutzt.
Best Practice 5: Rollenbasierte Dashboards statt «Ein Report für alle»
Ein Schichtleiter braucht andere Informationen als die Geschäftsleitung. Trotzdem versuchen viele Unternehmen, einen einzelnen Report für alle Zielgruppen zu bauen. Das Ergebnis: überladen, langsam, für niemanden wirklich nützlich.
→ Vergleichstabelle: Dashboard-Typen nach Zielgruppe (siehe Tabelle 2 oben)
Design-Prinzipien:
Maximal 6–8 Visuals pro Seite. Jede zusätzliche Visualisierung erzeugt eine DAX-Abfrage beim Laden. Eine Seite, die von 27 auf 12 Visuals reduziert wurde, kann die Ladezeit halbieren – ohne Änderung am Datenmodell.
Drill-Through statt Überfrachtung. Die erste Seite zeigt KPIs auf einen Blick. Per Klick auf eine Maschine oder eine Schicht öffnet sich eine Detail-Seite mit Drill-Through. So bleibt die Übersicht sauber, und die Tiefe ist trotzdem verfügbar.
Konsistentes Farbschema. Rot = Ziel verfehlt, Grün = Ziel erreicht, Gelb = Warnung. Das klingt trivial, wird aber in der Praxis oft inkonsistent umgesetzt. Definieren Sie eine Farb-Palette, die in allen Reports gilt.
Best Practice 6: Row-Level Security (RLS) von Anfang an einplanen
In einem Industrieunternehmen mit mehreren Werken, Linien oder Kunden darf nicht jeder alles sehen. Power BI bietet Row-Level Security (RLS), um den Datenzugriff rollenbasiert einzuschränken: Der Werkleiter in Bern sieht nur Bern, die Geschäftsleitung sieht alles.
Die Regel: RLS im Datenmodell definieren, nicht im Visual. RLS-Regeln werden als DAX-Filter auf Dimensionstabellen gesetzt und greifen automatisch in jedem Visual. Kombiniert mit Entra-ID-Gruppen (Azure Active Directory) lässt sich das Berechtigungsmodell zentral verwalten – besonders effizient auf Microsoft Fabric.
Praxis-Tipp: Testen Sie RLS mit der Funktion «Als Rolle anzeigen» in Power BI Desktop, bevor Sie den Report publizieren. Planen Sie RLS von Beginn an im Datenmodell ein – eine nachträgliche Einführung ist aufwändig.
Best Practice 7: Aktualisierungsfrequenz an den Use Case anpassen
Nicht jeder Report braucht Echtzeitdaten. Die richtige Aktualisierungsfrequenz hängt vom Use Case ab:
Echtzeit (Sekunden): Maschinenüberwachung, Störungsmeldungen, Sicherheits-Alerts. Erfordert Real-Time Intelligence in Microsoft Fabric oder DirectQuery.
Near-Realtime (Minuten bis Stunde): Schichtberichte, OEE-Dashboard, aktuelle Produktionszahlen. Möglich über häufige Import-Refreshes oder DirectQuery.
Täglich: Management-Reports, Qualitätsanalysen, Liefertreue-Berichte. Standard-Import mit ein bis zwei Aktualisierungen pro Tag.
Wöchentlich/monatlich: Strategische Analysen, Kostenvergleiche, Investitionsreports.
Die Regel: Import-Modus bevorzugen, wo möglich. Import ist schneller als DirectQuery und belastet das Quellsystem nicht. DirectQuery nur verwenden, wenn die Daten tatsächlich in Echtzeit benötigt werden oder das Datenvolumen zu gross für Import ist.
Best Practice 8: Governance einführen – Workspace-Struktur und Naming Conventions
Ohne Governance wächst die Zahl der Reports unkontrolliert. Nach einem Jahr hat jede Abteilung ihre eigenen Workspaces, eigene Datenmodelle und eigene KPI-Definitionen – das Chaos aus der Excel-Welt wiederholt sich in Power BI.
Workspace-Struktur definieren: Pro Fachbereich ein Workspace (Produktion, Qualität, Logistik, Finanzen). Zusätzlich ein zentraler Workspace für gemeinsame Datenmodelle (Shared Datasets).
Naming Conventions: Einheitliche Benennung für Reports (z.B. PROD_OEE_Linienübersicht), Measures (z.B. % Ausschussrate) und Datenquellen. Dokumentieren Sie die Konventionen – und setzen Sie sie durch.
Data Stewards ernennen: Pro Fachbereich eine Person, die für die Datenqualität und die KPI-Definitionen verantwortlich ist. Ohne Ownership verwässern Definitionen innerhalb von Monaten.
Best Practice 9: Performance optimieren – weniger ist mehr
Langsame Reports werden nicht genutzt. Die häufigsten Performance-Killer in Industrie-Reports:
Zu viele Spalten importiert. Importieren Sie nur die Spalten, die tatsächlich in Visuals oder Measures verwendet werden. Jede Spalte verbraucht Speicher in der VertiPaq-Engine. Entfernen Sie Spalten, die nur für die Transformation benötigt wurden.
Berechnete Spalten statt Measures. Berechnete Spalten (Calculated Columns) werden bei jedem Refresh materialisiert und vergrössern das Modell. Verwenden Sie stattdessen Measures, die zur Abfragezeit berechnet werden. Oder noch besser: Berechnen Sie Werte in dbt oder Power Query vor dem Import.
Zu viele Visuals pro Seite. Ein Report mit 25 Visuals auf einer Seite generiert 25 parallele DAX-Abfragen. Reduzieren Sie auf 6–8 und nutzen Sie Bookmarks, Drill-Through und Tooltips für Detailinformationen.
Bidirektionale Beziehungen. Vermeiden Sie bidirektionale Kreuzfilterung – sie verlangsamt Abfragen und kann zu mehrdeutigen Ergebnissen führen. Ein sauberes Star Schema mit unidirektionaler Filterung (Dimension → Fakt) ist fast immer die bessere Lösung.
Praxis-Tipp: Nutzen Sie den «Performance Analyzer» in Power BI Desktop, um langsame Visuals zu identifizieren. DAX Studio hilft bei der Analyse komplexer Measures.
Best Practice 10: Gemeinsame Datenmodelle (Shared Datasets) nutzen
Wenn Produktion, Qualität und Logistik jeweils eigene Datenmodelle bauen, entstehen unweigerlich Abweichungen: unterschiedliche Definitionen, unterschiedliche Datenquellen, unterschiedliche Aktualisierungszeitpunkte.
Die Lösung: Shared Datasets. Ein zentrales Datenmodell (Semantic Model) wird einmal erstellt und im Power BI Service publiziert. Mehrere Reports greifen darauf zu – jeder mit eigenen Visuals, aber auf derselben Datenbasis.
Auf Microsoft Fabric geht das noch einen Schritt weiter: Das Lakehouse dient als «Single Source of Truth», und Power BI greift direkt auf die Gold-Schicht zu. Änderungen an den Daten – etwa eine neue Dimensionstabelle oder ein korrigierter KPI – sind sofort in allen Reports verfügbar.
Best Practice 11: Mobile-First für den Shopfloor
Schichtleiter stehen an der Linie, nicht am Schreibtisch. Wenn Reports nur auf grossen Bildschirmen funktionieren, erreichen sie die wichtigste Zielgruppe nicht.
Power BI Mobile Layout nutzen: Power BI ermöglicht es, für jeden Report ein separates Mobil-Layout zu definieren. Reduzieren Sie auf die drei bis fünf wichtigsten KPIs, grosse Schrift, klare Farbsignale (Rot/Grün).
Teams-Integration: Binden Sie Dashboards direkt in Microsoft Teams ein – die Plattform, die viele Industrieunternehmen bereits für die Schichtkommunikation nutzen. Ein Klick auf den Teams-Tab statt Wechsel in den Browser senkt die Nutzungshürde massiv.
TV-Dashboards in der Produktion: Grossbildschirme an der Linie, die das OEE-Dashboard in Echtzeit zeigen. Kein Login nötig – konfiguriert über den Power BI Kiosk-Modus oder eingebettete URLs.
Best Practice 12: Schulung und Adoption – der unterschätzte Erfolgsfaktor
Die beste Datenplattform und die saubersten Datenmodelle nützen nichts, wenn niemand die Reports versteht oder nutzt.
Zwei Ebenen der Schulung:
Report-Konsumenten (Schichtleiter, Produktionsleiter, Geschäftsleitung): Brauchen keine DAX-Kenntnisse, aber müssen wissen, wie man Filter setzt, Drill-Through nutzt und Daten exportiert. 60–90 Minuten reichen.
Report-Entwickler (BI-Team, Power User): Brauchen fundiertes Wissen in Datenmodellierung, DAX, Power Query und Deployment-Prozessen. Investieren Sie in eine Schulung zu Star Schema und DAX-Patterns – es spart Monate an Nacharbeit.
Praxis-Tipp: Starten Sie mit einem «Champion» pro Abteilung – einer Person, die Power BI versteht und Kolleginnen und Kollegen unterstützt. Dieses Modell skaliert besser als zentrale Schulungen.
Von Excel zu Power BI – ein typischer Migrationspfad
Die meisten Industrieunternehmen starten nicht auf der grünen Wiese. Sie haben Excel-Reports, die seit Jahren laufen. Eine vollständige Migration auf einmal ist riskant und frustiert die Nutzer. Bewährt hat sich ein stufenweiser Ansatz:
Stufe 1 – Quick Win (Woche 1–4). Einen einzigen, hochfrequent genutzten Excel-Report in Power BI überführen – typischerweise das OEE- oder Produktions-Dashboard. Gleiche KPIs, bessere Optik, automatische Aktualisierung. Das erzeugt Nachfrage.
Stufe 2 – Datenmodell konsolidieren (Woche 5–12). Die wichtigsten Datenquellen (ERP, MES) an ein zentrales Datenmodell anbinden. Star Schema aufbauen, gemeinsame Dimensionen definieren (Kalender, Maschine, Produkt, Standort). Datenplattform auf Microsoft Fabric oder Azure aufsetzen.
Stufe 3 – Rollenbasierte Reports (Monat 3–6). Weitere Dashboards für Qualität, Logistik, Instandhaltung erstellen – alle auf demselben Shared Dataset. RLS einführen, Mobile Layouts konfigurieren.
Stufe 4 – Advanced Analytics (ab Monat 6). Data Science ergänzen: Predictive Maintenance, Qualitätsprognosen, Demand Forecasting. Die Daten sind dank der Plattform bereits vorhanden – jetzt werden sie mit Machine Learning und MLOps weiterverarbeitet.
Power BI und Microsoft Fabric – warum beides zusammengehört
Power BI alleine stösst an Grenzen, sobald Daten aus vielen Quellen, in grossen Volumina oder mit hoher Frequenz verarbeitet werden müssen. Microsoft Fabric löst dieses Problem, indem es Power BI in eine vollständige Datenplattform einbettet:
OneLake als Single Source of Truth. Alle Daten – aus ERP, MES, Sensorik – landen in einem zentralen Data Lake. Power BI greift direkt darauf zu, ohne Daten kopieren zu müssen.
dbt-Transformationen statt Power Query. Komplexe Transformationen werden in SQL geschrieben, versioniert und automatisiert – wiederverwendbar für Reports, Data Science und Generative AI.
Real-Time Intelligence für den Shopfloor. Streaming-Daten von Sensoren werden in Echtzeit verarbeitet und in Power BI visualisiert – ohne Umweg über ein separates IoT-System.
Data Governance integriert. Entra ID, Sensitivity Labels, Datenkatalog – alles in einer Plattform. RLS-Regeln greifen durchgängig von OneLake bis zum Dashboard.
Substring setzt diese Kombination bei Industriekunden wie SIPRO Steel Solutions und im öffentlichen Verkehr (BVB, BERNMOBIL) produktiv ein.
Wie Substring Sie unterstützt
Substring verbindet Power-BI-Expertise mit Industrieverständnis und Datenplattform-Kompetenz:
- Beratung und Strategie: Datenlandkarte, Datenstrategie, KPI-Definition und Governance-Konzept
- Datenplattform: Microsoft Fabric, OneLake, dbt, Bronze-Silber-Gold – das Fundament für verlässliche Reports
- Power BI Development: Datenmodellierung, DAX, rollenbasierte Dashboards, RLS, Mobile Layouts
- Künstliche Intelligenz: Predictive Maintenance, Qualitätsprognosen, RAG auf Produktionsdaten
- Schulung und Adoption: Workshops für Report-Konsumenten und Report-Entwickler
→ Kontakt aufnehmen – wir zeigen Ihnen, wie Power BI in Ihrer Produktion zum täglichen Werkzeug wird.
Weiterführende Glossar-Artikel
- Microsoft Fabric für Industrieunternehmen – die Plattform hinter Power BI
- dbt und Microsoft Fabric – Transformationen automatisieren
- Was ist ein Data Lake? – OneLake im Kontext
- Was ist Data Science? – vom Dashboard zur Prognose
- Was ist MLOps? – Modelle in Produktion betreiben
- Data Governance – Spielregeln für Daten und Reports
- Was ist eine Data Pipeline? – Datenfluss von Quelle zu Dashboard