Kategorie

Kontakt

Power BI Best Practices für die Industrie | 12 Tipps

In vielen Industrieunternehmen ist Power BI bereits im Einsatz – oft mit gemischtem Erfolg. Es gibt Reports, die täglich in Schichtbesprechungen genutzt werden, und solche, die nach der Einführung nie wieder geöffnet wurden. Der Unterschied liegt selten an der Technologie. Er liegt an der Art, wie das Datenmodell aufgebaut, die KPIs definiert und die Dashboards gestaltet wurden.

Dieser Artikel fasst 12 Best Practices zusammen, die aus realen Industrieprojekten stammen – von der Datenplattform über das Datenmodell bis zum fertigen Dashboard. Der Fokus liegt auf produzierenden Unternehmen, die Power BI mit Daten aus ERP, MES und Sensorik verbinden wollen – idealerweise auf Microsoft Fabric als Plattform.

Industrie-KPIs für Power BI – nach Zielgruppe

Zielgruppe Wichtigste KPIs Aktualisierung Dashboard-Typ
Geschäftsleitung Umsatz / Marge EBIT Liefertreue OEE gesamt Reklamationsquote Täglich – Wöchentlich Executive Scorecard
Werkleitung OEE pro Linie Stillstandsgründe Ausschussrate Personalverfügbarkeit Energieverbrauch Täglich Werks-Cockpit
Produktionsleitung Verfügbarkeit Leistung Qualität Taktzeit Rüstzeit Durchlaufzeit Schichtweise Produktions-Dashboard
Schichtleiter Ist vs. Soll Stückzahl Stillstand aktiv Ausschuss aktuell Maschinenampel Near-Realtime Shopfloor-Anzeige
Qualität Ausschussrate Cpk / Ppk Reklamationen SPC-Karten First Pass Yield Täglich Qualitäts-Dashboard
Logistik / Supply Chain Liefertreue Lagerreichweite Bestandswert Lieferantenperformance Täglich Supply-Chain-Cockpit
Instandhaltung MTBF MTTR Geplant vs. ungeplant Wartungskosten Offene Aufträge Täglich Maintenance-Dashboard

Dashboard-Typen für Industrieunternehmen

Dashboard-Typ Zielgruppe Inhalt Empfohlene Visuals Datenquellen
Executive Scorecard C-Level, Werkleitung Unternehmens-KPIs auf einer Seite, YoY-Trend, Zielabweichung KPI-Karten Sparklines Abweichungsbalken ERP Gold-Schicht
OEE-Dashboard Produktions- & Werkleitung Verfügbarkeit, Leistung, Qualität – pro Maschine, Linie, Schicht Gauge Wasserfall Balken (Stillstandsgrund) MES Sensorik
Qualitäts-Cockpit QM-Abteilung SPC-Regelkarten, Cpk, Ausschuss nach Fehlerart, Reklamationstrend Regelkarten Pareto Scatter LIMS MES CRM
Shopfloor-Anzeige Schichtleiter, Bediener Ampelstatus, Ist vs. Soll, aktive Störung, Schichtfortschritt Grosse Karten Ampel-Farben Auto-Refresh MES Near-Realtime
Supply-Chain-Cockpit Logistik, Einkauf Liefertreue, Bestand, Lieferantenmatrix, offene Bestellungen Matrix-Tabelle Karten Trendlinien ERP Logistik
Maintenance-Dashboard Instandhaltung MTBF/MTTR, Wartungskalender, geplant vs. ungeplant, Kostenvergleich Gantt-artig Trendlinien Pareto CMMS Sensorik
Energie-Dashboard Facility Mgmt., GL kWh pro Stück, CO₂-Emissionen, Verbrauch pro Maschine, ESG-KPIs Balken Trendlinien Heatmap Energiezähler ERP

Bevor Sie starten: Power BI ist kein Excel-Ersatz

Der häufigste Fehler: Teams überführen bestehende Excel-Reports eins zu eins in Power BI. Das Ergebnis sind Dashboards, die genauso unübersichtlich sind wie vorher – nur jetzt in der Cloud. Power BI funktioniert grundlegend anders als Excel. Es basiert auf einem analytischen Datenmodell mit Fakten- und Dimensionstabellen, nicht auf Zeilen und Spalten in einer Arbeitsmappe. Wer das versteht, baut bessere Reports. Wer es ignoriert, kämpft mit Performance, falschen Zahlen und frustrierten Nutzern.

Best Practice 1: Zuerst das Datenmodell, dann das Dashboard

Das Datenmodell ist das Fundament jedes Power-BI-Reports. Ein schlecht strukturiertes Modell führt zu langsamen Abfragen, falschen Aggregationen und Reports, die bei jeder neuen Anforderung umgebaut werden müssen.

Die Regel: Star Schema verwenden. Für Industrieunternehmen bedeutet das:

Eine Faktentabelle enthält die Messwerte: Produktionsmengen, Stillstandszeiten, Ausschusszahlen, Energieverbräuche. Jede Zeile ist ein Ereignis – ein Produktionsauftrag, eine Maschinenmeldung, ein Qualitätsprüfpunkt.

Dimensionstabellen beschreiben den Kontext: Maschine, Produkt, Schicht, Standort, Kalender. Sie sind über Schlüssel mit der Faktentabelle verbunden und ermöglichen das Filtern und Gruppieren.

Vermeiden Sie «breite Tabellen», in denen alles in einer einzigen Tabelle liegt. Sie funktionieren für einfache Fälle, scheitern aber, sobald mehrere Datumsbezüge (Auftragsdatum, Lieferdatum, Prüfdatum) oder mehrere Faktentabellen ins Spiel kommen.

Praxis-Tipp: Erstellen Sie eine dedizierte Kalender-Dimensionstabelle mit Jahr, Quartal, Monat, Kalenderwoche, Schicht. Deaktivieren Sie die Auto-Time-Intelligence-Funktion in Power BI Desktop – sie erzeugt versteckte Datumstabellen für jede Datumsspalte und bläht das Modell unnötig auf.

Best Practice 2: KPIs definieren, bevor das Dashboard gebaut wird

Ein Dashboard ohne klare KPI-Definition ist Dekoration. Definieren Sie pro Zielgruppe (Geschäftsleitung, Produktionsleitung, Schichtleiter, Qualität) die fünf bis zehn wichtigsten Kennzahlen – nicht mehr.

→ Vergleichstabelle: Industrie-KPIs nach Zielgruppe (siehe Tabelle 1 oben)

Jede KPI braucht eine eindeutige Definition: Formel, Datenquelle, Aggregationsebene, Aktualisierungsfrequenz. Ohne das berechnen zwei Abteilungen die Ausschussrate unterschiedlich – und das Vertrauen in die Daten ist zerstört.

Praxis-Tipp: Dokumentieren Sie KPI-Definitionen in einem zentralen Dokument oder in Power BIs eigenem Beschreibungsfeld für Measures. Wenn ein Nutzer mit der Maus über eine Kennzahl fährt, sollte er sehen, was sie bedeutet.

Best Practice 3: Daten in der Quelle bereinigen – nicht in Power BI

Power BI kann Daten transformieren (Power Query / M), aber es sollte nicht das primäre ETL-Tool sein. Für Industrieunternehmen mit mehreren Datenquellen (ERP, MES, Sensorik, Qualitätssystem) gilt:

Bereinigung und Transformation gehören in die Data Pipeline – idealerweise mit dbt auf Microsoft Fabric. Dort werden Daten in der Bronze-Silber-Gold-Architektur bereinigt, dedupliziert und geschäftsfertig aufbereitet. Power BI greift dann auf die Gold-Schicht zu – saubere, verlässliche Daten.

Warum? Weil Power Query Transformationen bei jedem Refresh erneut laufen und das Modell verlangsamen. Weil Transformationslogik, die in einzelnen .pbix-Dateien steckt, nicht wiederverwendbar ist. Und weil Änderungen an der Datenbereinigung bei einem zentralen ETL-Tool einmal gemacht werden – nicht in jedem einzelnen Report.

Praxis-Tipp: Nutzen Sie Power Query nur für einfache, reportspezifische Anpassungen (Spalte umbenennen, Filterung). Alles andere gehört in dbt oder Azure Data Factory.

Best Practice 4: Explizite Measures statt impliziter Aggregationen

In Power BI können Spalten direkt in Visuals gezogen werden – Power BI aggregiert sie automatisch (Summe, Durchschnitt). Das ist bequem, aber gefährlich: Die Aggregation ist nicht dokumentiert, nicht wiederverwendbar und funktioniert nicht mit komplexeren Berechnungen.

Die Regel: Erstellen Sie für jede Kennzahl ein explizites DAX-Measure. Beispiel für eine OEE-Berechnung:

Verfügbarkeit =

DIVIDE(

  SUM(Produktion[Laufzeit_Minuten]),

  SUM(Produktion[Geplante_Produktionszeit_Minuten]),

  0

)

Leistung =

DIVIDE(

  SUM(Produktion[Ist_Stückzahl]),

  SUM(Produktion[Soll_Stückzahl]),

  0

)

Qualität =

DIVIDE(

  SUM(Produktion[Gut_Stückzahl]),

  SUM(Produktion[Ist_Stückzahl]),

  0

)

OEE = [Verfügbarkeit] * [Leistung] * [Qualität]

Praxis-Tipp: Organisieren Sie Measures in Ordnern (Display Folders) – etwa «OEE», «Qualität», «Logistik». Verstecken Sie Hilfsspalten und Beziehungschlüssel, die Endnutzer nicht brauchen. Ein aufgeräumtes Modell wird häufiger genutzt.

Best Practice 5: Rollenbasierte Dashboards statt «Ein Report für alle»

Ein Schichtleiter braucht andere Informationen als die Geschäftsleitung. Trotzdem versuchen viele Unternehmen, einen einzelnen Report für alle Zielgruppen zu bauen. Das Ergebnis: überladen, langsam, für niemanden wirklich nützlich.

→ Vergleichstabelle: Dashboard-Typen nach Zielgruppe (siehe Tabelle 2 oben)

Design-Prinzipien:

Maximal 6–8 Visuals pro Seite. Jede zusätzliche Visualisierung erzeugt eine DAX-Abfrage beim Laden. Eine Seite, die von 27 auf 12 Visuals reduziert wurde, kann die Ladezeit halbieren – ohne Änderung am Datenmodell.

Drill-Through statt Überfrachtung. Die erste Seite zeigt KPIs auf einen Blick. Per Klick auf eine Maschine oder eine Schicht öffnet sich eine Detail-Seite mit Drill-Through. So bleibt die Übersicht sauber, und die Tiefe ist trotzdem verfügbar.

Konsistentes Farbschema. Rot = Ziel verfehlt, Grün = Ziel erreicht, Gelb = Warnung. Das klingt trivial, wird aber in der Praxis oft inkonsistent umgesetzt. Definieren Sie eine Farb-Palette, die in allen Reports gilt.

Best Practice 6: Row-Level Security (RLS) von Anfang an einplanen

In einem Industrieunternehmen mit mehreren Werken, Linien oder Kunden darf nicht jeder alles sehen. Power BI bietet Row-Level Security (RLS), um den Datenzugriff rollenbasiert einzuschränken: Der Werkleiter in Bern sieht nur Bern, die Geschäftsleitung sieht alles.

Die Regel: RLS im Datenmodell definieren, nicht im Visual. RLS-Regeln werden als DAX-Filter auf Dimensionstabellen gesetzt und greifen automatisch in jedem Visual. Kombiniert mit Entra-ID-Gruppen (Azure Active Directory) lässt sich das Berechtigungsmodell zentral verwalten – besonders effizient auf Microsoft Fabric.

Praxis-Tipp: Testen Sie RLS mit der Funktion «Als Rolle anzeigen» in Power BI Desktop, bevor Sie den Report publizieren. Planen Sie RLS von Beginn an im Datenmodell ein – eine nachträgliche Einführung ist aufwändig.

Best Practice 7: Aktualisierungsfrequenz an den Use Case anpassen

Nicht jeder Report braucht Echtzeitdaten. Die richtige Aktualisierungsfrequenz hängt vom Use Case ab:

Echtzeit (Sekunden): Maschinenüberwachung, Störungsmeldungen, Sicherheits-Alerts. Erfordert Real-Time Intelligence in Microsoft Fabric oder DirectQuery.

Near-Realtime (Minuten bis Stunde): Schichtberichte, OEE-Dashboard, aktuelle Produktionszahlen. Möglich über häufige Import-Refreshes oder DirectQuery.

Täglich: Management-Reports, Qualitätsanalysen, Liefertreue-Berichte. Standard-Import mit ein bis zwei Aktualisierungen pro Tag.

Wöchentlich/monatlich: Strategische Analysen, Kostenvergleiche, Investitionsreports.

Die Regel: Import-Modus bevorzugen, wo möglich. Import ist schneller als DirectQuery und belastet das Quellsystem nicht. DirectQuery nur verwenden, wenn die Daten tatsächlich in Echtzeit benötigt werden oder das Datenvolumen zu gross für Import ist.

Best Practice 8: Governance einführen – Workspace-Struktur und Naming Conventions

Ohne Governance wächst die Zahl der Reports unkontrolliert. Nach einem Jahr hat jede Abteilung ihre eigenen Workspaces, eigene Datenmodelle und eigene KPI-Definitionen – das Chaos aus der Excel-Welt wiederholt sich in Power BI.

Workspace-Struktur definieren: Pro Fachbereich ein Workspace (Produktion, Qualität, Logistik, Finanzen). Zusätzlich ein zentraler Workspace für gemeinsame Datenmodelle (Shared Datasets).

Naming Conventions: Einheitliche Benennung für Reports (z.B. PROD_OEE_Linienübersicht), Measures (z.B. % Ausschussrate) und Datenquellen. Dokumentieren Sie die Konventionen – und setzen Sie sie durch.

Data Stewards ernennen: Pro Fachbereich eine Person, die für die Datenqualität und die KPI-Definitionen verantwortlich ist. Ohne Ownership verwässern Definitionen innerhalb von Monaten.

Best Practice 9: Performance optimieren – weniger ist mehr

Langsame Reports werden nicht genutzt. Die häufigsten Performance-Killer in Industrie-Reports:

Zu viele Spalten importiert. Importieren Sie nur die Spalten, die tatsächlich in Visuals oder Measures verwendet werden. Jede Spalte verbraucht Speicher in der VertiPaq-Engine. Entfernen Sie Spalten, die nur für die Transformation benötigt wurden.

Berechnete Spalten statt Measures. Berechnete Spalten (Calculated Columns) werden bei jedem Refresh materialisiert und vergrössern das Modell. Verwenden Sie stattdessen Measures, die zur Abfragezeit berechnet werden. Oder noch besser: Berechnen Sie Werte in dbt oder Power Query vor dem Import.

Zu viele Visuals pro Seite. Ein Report mit 25 Visuals auf einer Seite generiert 25 parallele DAX-Abfragen. Reduzieren Sie auf 6–8 und nutzen Sie Bookmarks, Drill-Through und Tooltips für Detailinformationen.

Bidirektionale Beziehungen. Vermeiden Sie bidirektionale Kreuzfilterung – sie verlangsamt Abfragen und kann zu mehrdeutigen Ergebnissen führen. Ein sauberes Star Schema mit unidirektionaler Filterung (Dimension → Fakt) ist fast immer die bessere Lösung.

Praxis-Tipp: Nutzen Sie den «Performance Analyzer» in Power BI Desktop, um langsame Visuals zu identifizieren. DAX Studio hilft bei der Analyse komplexer Measures.

Best Practice 10: Gemeinsame Datenmodelle (Shared Datasets) nutzen

Wenn Produktion, Qualität und Logistik jeweils eigene Datenmodelle bauen, entstehen unweigerlich Abweichungen: unterschiedliche Definitionen, unterschiedliche Datenquellen, unterschiedliche Aktualisierungszeitpunkte.

Die Lösung: Shared Datasets. Ein zentrales Datenmodell (Semantic Model) wird einmal erstellt und im Power BI Service publiziert. Mehrere Reports greifen darauf zu – jeder mit eigenen Visuals, aber auf derselben Datenbasis.

Auf Microsoft Fabric geht das noch einen Schritt weiter: Das Lakehouse dient als «Single Source of Truth», und Power BI greift direkt auf die Gold-Schicht zu. Änderungen an den Daten – etwa eine neue Dimensionstabelle oder ein korrigierter KPI – sind sofort in allen Reports verfügbar.

Best Practice 11: Mobile-First für den Shopfloor

Schichtleiter stehen an der Linie, nicht am Schreibtisch. Wenn Reports nur auf grossen Bildschirmen funktionieren, erreichen sie die wichtigste Zielgruppe nicht.

Power BI Mobile Layout nutzen: Power BI ermöglicht es, für jeden Report ein separates Mobil-Layout zu definieren. Reduzieren Sie auf die drei bis fünf wichtigsten KPIs, grosse Schrift, klare Farbsignale (Rot/Grün).

Teams-Integration: Binden Sie Dashboards direkt in Microsoft Teams ein – die Plattform, die viele Industrieunternehmen bereits für die Schichtkommunikation nutzen. Ein Klick auf den Teams-Tab statt Wechsel in den Browser senkt die Nutzungshürde massiv.

TV-Dashboards in der Produktion: Grossbildschirme an der Linie, die das OEE-Dashboard in Echtzeit zeigen. Kein Login nötig – konfiguriert über den Power BI Kiosk-Modus oder eingebettete URLs.

Best Practice 12: Schulung und Adoption – der unterschätzte Erfolgsfaktor

Die beste Datenplattform und die saubersten Datenmodelle nützen nichts, wenn niemand die Reports versteht oder nutzt.

Zwei Ebenen der Schulung:

Report-Konsumenten (Schichtleiter, Produktionsleiter, Geschäftsleitung): Brauchen keine DAX-Kenntnisse, aber müssen wissen, wie man Filter setzt, Drill-Through nutzt und Daten exportiert. 60–90 Minuten reichen.

Report-Entwickler (BI-Team, Power User): Brauchen fundiertes Wissen in Datenmodellierung, DAX, Power Query und Deployment-Prozessen. Investieren Sie in eine Schulung zu Star Schema und DAX-Patterns – es spart Monate an Nacharbeit.

Praxis-Tipp: Starten Sie mit einem «Champion» pro Abteilung – einer Person, die Power BI versteht und Kolleginnen und Kollegen unterstützt. Dieses Modell skaliert besser als zentrale Schulungen.

Von Excel zu Power BI – ein typischer Migrationspfad

Die meisten Industrieunternehmen starten nicht auf der grünen Wiese. Sie haben Excel-Reports, die seit Jahren laufen. Eine vollständige Migration auf einmal ist riskant und frustiert die Nutzer. Bewährt hat sich ein stufenweiser Ansatz:

Stufe 1 – Quick Win (Woche 1–4). Einen einzigen, hochfrequent genutzten Excel-Report in Power BI überführen – typischerweise das OEE- oder Produktions-Dashboard. Gleiche KPIs, bessere Optik, automatische Aktualisierung. Das erzeugt Nachfrage.

Stufe 2 – Datenmodell konsolidieren (Woche 5–12). Die wichtigsten Datenquellen (ERP, MES) an ein zentrales Datenmodell anbinden. Star Schema aufbauen, gemeinsame Dimensionen definieren (Kalender, Maschine, Produkt, Standort). Datenplattform auf Microsoft Fabric oder Azure aufsetzen.

Stufe 3 – Rollenbasierte Reports (Monat 3–6). Weitere Dashboards für Qualität, Logistik, Instandhaltung erstellen – alle auf demselben Shared Dataset. RLS einführen, Mobile Layouts konfigurieren.

Stufe 4 – Advanced Analytics (ab Monat 6). Data Science ergänzen: Predictive Maintenance, Qualitätsprognosen, Demand Forecasting. Die Daten sind dank der Plattform bereits vorhanden – jetzt werden sie mit Machine Learning und MLOps weiterverarbeitet.

Power BI und Microsoft Fabric – warum beides zusammengehört

Power BI alleine stösst an Grenzen, sobald Daten aus vielen Quellen, in grossen Volumina oder mit hoher Frequenz verarbeitet werden müssen. Microsoft Fabric löst dieses Problem, indem es Power BI in eine vollständige Datenplattform einbettet:

OneLake als Single Source of Truth. Alle Daten – aus ERP, MES, Sensorik – landen in einem zentralen Data Lake. Power BI greift direkt darauf zu, ohne Daten kopieren zu müssen.

dbt-Transformationen statt Power Query. Komplexe Transformationen werden in SQL geschrieben, versioniert und automatisiert – wiederverwendbar für Reports, Data Science und Generative AI.

Real-Time Intelligence für den Shopfloor. Streaming-Daten von Sensoren werden in Echtzeit verarbeitet und in Power BI visualisiert – ohne Umweg über ein separates IoT-System.

Data Governance integriert. Entra ID, Sensitivity Labels, Datenkatalog – alles in einer Plattform. RLS-Regeln greifen durchgängig von OneLake bis zum Dashboard.

Substring setzt diese Kombination bei Industriekunden wie SIPRO Steel Solutions und im öffentlichen Verkehr (BVB, BERNMOBIL) produktiv ein.

Wie Substring Sie unterstützt

Substring verbindet Power-BI-Expertise mit Industrieverständnis und Datenplattform-Kompetenz:

  • Beratung und Strategie: Datenlandkarte, Datenstrategie, KPI-Definition und Governance-Konzept
  • Datenplattform: Microsoft Fabric, OneLake, dbt, Bronze-Silber-Gold – das Fundament für verlässliche Reports
  • Power BI Development: Datenmodellierung, DAX, rollenbasierte Dashboards, RLS, Mobile Layouts
  • Künstliche Intelligenz: Predictive Maintenance, Qualitätsprognosen, RAG auf Produktionsdaten
  • Schulung und Adoption: Workshops für Report-Konsumenten und Report-Entwickler

→ Kontakt aufnehmen – wir zeigen Ihnen, wie Power BI in Ihrer Produktion zum täglichen Werkzeug wird.

Weiterführende Glossar-Artikel

kontakt

Wir freuen uns, von Ihnen zu hören!