Kategorie
Kontakt
Data Applications: Business-Software, die auf Daten fokussiert
Was ist eine Data Application?
Eine Data Application ist eine Business-Applikation, deren Kern der Umgang mit Daten ist: erfassen, austauschen, verarbeiten, integrieren, verfügbar machen. Sie gehört zum Bereich der Operativen Datasystems und entsteht dort, wo bestehende Systeme nicht zusammenspielen, wo Daten manuell zwischen Systemen geschoben werden, oder wo ein Prozess digital sein sollte – aber kein Standardtool die spezifische Logik abbildet.
Konkret kann eine Data Application sein:
- Eine operative Datenpipeline mit menschlichen Kontroll- und Freigabeschritten – etwa bei finanzrelevanten Prozessen oder regulatorischen Anforderungen
- Ein Human-in-the-Loop-Interface, das KI-Ergebnisse mit menschlicher Beurteilung verbindet – prüfen, korrigieren, freigeben, und damit das Modell kontinuierlich verbessern
- Eine Integration zwischen bestehenden Systemen – ERP, CRM, Fachapplikationen, IoT-Plattformen – die Daten bidirektional synchronisiert und transformiert
- Eine Erfassungs- und Verarbeitungslösung für Daten, die in keinem Standardsystem ein Zuhause haben
- Eine API-Schicht, die interne Daten strukturiert und sicher für andere Systeme oder Partner verfügbar macht
Der Unterschied zu einem Dashboard: Eine Data Application ist nicht nur zum Lesen da. Der Unterschied zu einer klassischen Fachapplikation: Der Fokus liegt auf Datenflüssen und -verarbeitung, nicht auf der Abbildung eines ganzen Geschäftsprozesses.
Anwendungsfälle aus der Praxis
Operative Pipeline: Nutzungsdaten zu Rechnungspositionen
Nicht alle Datenpipelines laufen vollautomatisch. Gerade bei finanzrelevanten Prozessen braucht es an definierten Stellen einen Menschen, der prüft und freigibt.
Ein Beispiel: Ein Anbieter digitaler Produkte erhält Nutzungsdaten und Micropayments aus verschiedenen App Stores – unterschiedliche Formate, Abrechnungszyklen, Währungen. Eine Data Application führt diese Datenströme zusammen, berechnet individuelle Positionen pro Kunde und Produkt und bereitet sie für die Rechnungsstellung vor. Bevor die Positionen ins Invoicing-System zurückgeschrieben werden, prüft das Controlling die aggregierten Werte: Stimmen die Beträge? Gibt es Ausreisser? Erst nach Freigabe fliesst der Datensatz weiter.
Ohne Data Application: manuelle Exporte, Excel-Berechnungen, fehleranfälliges Copy-Paste. Mit Data Application: eine nachvollziehbare, auditierbare Pipeline – bei der der Mensch genau dort eingreift, wo sein Urteil gefragt ist.
Human-in-the-Loop: Felddaten-Klassifizierung bei V-ZUG
V-ZUG musste tausende Servicefallmeldungen – Freitexte wie "Der Backofen heizt nicht richtig" – für die Qualitätskontrolle klassifizieren. Der manuelle Aufwand war so gross, dass dies nur monatlich für eine Stichprobe erfolgte.
Unsere Lösung: Ein LLM analysiert die unstrukturierten Meldungen und ordnet sie automatisch Kategorien zu – unterstützt durch Few-Shot-Learning und RAG mit einem Vektorstore. Über eine Web-Applikation prüfen die Anwender die KI-Vorschläge, bestätigen oder korrigieren sie. Jede validierte Klassifizierung fliesst zurück in die Vektordatenbank – das System wird mit jeder Interaktion besser.
Ergebnis: Sämtliche Servicedaten werden täglich statt monatlich klassifiziert, mit über 93 Prozent Genauigkeit – Tendenz steigend. Die Ergebnisse fliessen in die bestehende BI-Architektur und bilden die Grundlage für Trendanalysen und Produktoptimierung. Das ist Human-in-the-Loop in der Praxis.
LLM im Geschäftsprozess: Offertprozess automatisieren
Für einen Kunden haben wir den Offertprozess neu gedacht. Bisher: Anfrage sichten, Produktdaten im ERP suchen, Preiskalkulation in Excel, Offerte in Word. Jeder Schritt ein Medienbruch.
Die Data Application verbindet ERP, Produktkatalog und historische Offerten mit einem LLM, das Anfragen analysiert, passende Produkte vorschlägt und einen Offertentwurf generiert. Der Vertriebsmitarbeiter bekommt einen intelligenten Vorschlag, den er prüft, anpasst und freigibt. Die KI beschleunigt, der Mensch entscheidet.
Individuelle Datenerfassung: Results Data Management für die DEZA
Die Direktion für Entwicklung und Zusammenarbeit (DEZA) verwaltet Hunderte von Projekten weltweit, jedes mit individuellen Indikatoren zur Wirkungsmessung. Bisher erfolgte die Datenerfassung in fragmentierten Systemen – eine übergreifende Auswertung war kaum möglich.
Die Lösung Results Data Management (RDM), an deren Entwicklung wir massgeblich mitentwickelt haben, ist eine vollständige Individualentwicklung: Ein generisches Datenmodell für die flexible Verwaltung individueller Indikatoren, eine Web-Oberfläche für die strukturierte Erfassung durch Projektverantwortliche, dynamische Berechnungslogiken für die Aggregation von der Einzelerfassung bis zur Gesamtauswertung, und eine BI-Komponente für die Analyse auf allen Ebenen.
APIs: Daten verfügbar machen
Nicht jede Data Application hat ein User Interface. Manchmal ist die Anwendung eine API-Schicht, die interne Daten strukturiert und sicher für andere Systeme, Partner oder Kunden verfügbar macht. Die Herausforderung ist selten die API selbst – es ist das, was dahinter liegt: Daten aus verschiedenen Quellen zusammenführen, transformieren, validieren, mit Berechtigungen versehen und in einem konsistenten Format bereitstellen.
Was Data Applications von klassischer Softwareentwicklung unterscheidet
Wer Data Applications baut, muss Softwareentwicklung und Data Engineering beherrschen. Genau an dieser Schnittstelle arbeitet Substring. Wir wurden im Jahre 2000 als Individualentwicklungsfirma gegründet – Software Engineering haben wir im Blut. Über die Jahre haben wir dieses Fundament mit tiefem Data-Know-how verbunden: Data Consulting, BI & Datenplattformen, KI. Diese Kombination ist selten – und genau das, was Data Applications brauchen.
So arbeiten wir
Data Applications entwickeln wir nach unserem Engagement Model – Align → Plan → Build → Run – in agilen Sprints. Ein Prototyp steht typischerweise in 2–4 Wochen, die eigentliche Herausforderung liegt in der Integration: Schnittstellen absichern, Datenqualität gewährleisten, Edge Cases abfangen.
Technologisch setzen wir auf .NET im Backend und Blazor im Frontend. Für die Datenanbindung nutzen wir die Plattform, die beim Kunden im Einsatz ist – Cloud oder On-Premise. APIs über REST oder GraphQL, für Echtzeit-Szenarien Event-basierte Architekturen. KI-Modelle als Microservices über standardisierte Schnittstellen.
Nächster Schritt
Haben Sie eine operative Pipeline, die heute auf Excel-Workarounds basiert? Wollen Sie KI-Ergebnisse in einen Geschäftsprozess einbetten – mit dem Menschen an der richtigen Stelle? Oder brauchen Sie eine Systemintegration, die Daten automatisch zwischen Ihren Anwendungen synchronisiert?
Sprechen Sie mit uns – wir klären, ob eine Data Application der richtige Ansatz ist.
Verwandte Artikel
- Agentic AI: Wenn KI eigenständig handelt – und wann der Mensch eingreifen muss
- Datenprojekt starten: Ein ehrlicher Leitfaden
- Was ist eine Data Pipeline?
- Was ist ein Data Warehouse?
- Data Governance und Datenqualität
- Manufacturing Data Architecture
- Excel ablösen – aber richtig
- Operative Datasystems