Kategorie
Kontakt
Was ist Generative AI (GenAI)? Einfach erklärt
Generative AI (auch Generative KI oder GenAI) bezeichnet eine Klasse von KI-Systemen, die neue Inhalte erzeugen können: Texte, Bilder, Code, Zusammenfassungen, Übersetzungen oder strukturierte Daten. Das bekannteste Beispiel ist ChatGPT, aber die Technologie geht weit über Chatbots hinaus.
Der entscheidende Unterschied zu klassischer KI: Klassische Machine-Learning-Modelle werden auf unternehmensspezifische Daten trainiert und lösen eine klar definierte Aufgabe – z.B. «Ist dieses Bauteil defekt?» oder «Wann fällt diese Maschine aus?». Generative AI hingegen kommt vortrainiert und kann sofort eingesetzt werden – ohne eigene Trainingsdaten. Man stellt ihr eine Frage oder gibt ihr eine Anweisung, und sie generiert eine Antwort.
Beide Ansätze haben ihre Berechtigung. In diesem Artikel erklären wir, wie Generative AI funktioniert, wo sie klassische KI ergänzt (nicht ersetzt), und welche Use Cases für Unternehmen in Industrie, Verkehr und Verwaltung konkret Sinn ergeben.
Wie funktioniert Generative AI?
Die Grundlage der meisten generativen KI-Systeme sind Large Language Models (LLMs) – riesige neuronale Netzwerke, die auf Milliarden von Textdokumenten trainiert wurden. Durch dieses Training haben sie ein statistisches Verständnis von Sprache, Logik und Zusammenhängen entwickelt.
Die wichtigsten Konzepte:
Transformer-Architektur. Die 2017 von Google entwickelte Architektur ist der technische Kern aller modernen LLMs. Sie ermöglicht es dem Modell, den Kontext eines gesamten Textes gleichzeitig zu erfassen – nicht nur Wort für Wort, sondern als Ganzes. Das ist der Grund, warum GPT-4, Claude oder Gemini kohärente, kontextbezogene Antworten geben können.
Prompting. Statt ein Modell mit eigenen Daten zu trainieren, steuert man Generative AI über natürlichsprachliche Anweisungen (Prompts). «Fasse diesen Wartungsbericht in drei Sätzen zusammen» oder «Extrahiere alle Seriennummern aus diesem Dokument» – das Modell versteht die Aufgabe aus dem Kontext.
Tokens und Kontextfenster. LLMs verarbeiten Text in sogenannten Tokens (Wortteile). Das Kontextfenster bestimmt, wie viel Text das Modell gleichzeitig «sehen» kann. Moderne Modelle verarbeiten 100'000+ Tokens – das entspricht einem ganzen Buch.
Halluzinationen. LLMs können plausibel klingende, aber faktisch falsche Antworten generieren. Das ist kein Bug, sondern eine Eigenschaft: Das Modell optimiert auf wahrscheinliche Wortfolgen, nicht auf Wahrheit. Deshalb ist GenAI allein nicht für sicherheitskritische Entscheidungen geeignet – sondern als Werkzeug, das von Menschen überwacht wird.
Generative AI vs. klassische KI: Was wann einsetzen?
Das ist die zentrale Frage, die wir in Kundengesprächen am häufigsten hören. Die Antwort: Es kommt auf den Use Case an.
Die wichtigste Erkenntnis: GenAI ersetzt klassische KI nicht – sie ergänzt sie. Für die Defekterkennung an einer Sortieranlage der Post braucht es ein klassisches ML-Modell, das auf Sensordaten trainiert ist. Aber um die Wartungsberichte derselben Anlage automatisiert auszuwerten, ist ein LLM das bessere Werkzeug.
Wie Unternehmen Generative AI nutzen können
Wir unterscheiden drei Reifestufen – von «morgen starten» bis «strategisch einbetten»:
Stufe 1: Effizienz steigern (Quick Wins)
Aufgaben, die sofort mit Standard-LLMs gelöst werden können, ohne eigene Dateninfrastruktur:
Dokumentenanalyse und -zusammenfassung. Verträge, Wartungsberichte, Normen, Ausschreibungen – LLMs können hunderte Seiten lesen und die relevanten Informationen extrahieren. Statt eine 80-seitige SBB-Ausschreibung manuell durchzuarbeiten, fasst ein LLM die technischen Anforderungen in einer strukturierten Tabelle zusammen.
Übersetzung und Lokalisierung. Schweizer Unternehmen arbeiten mehrsprachig. GenAI übersetzt nicht nur Wörter, sondern versteht den Fachkontext – «Weichenstörung» wird korrekt zu «point failure», nicht zu «soft disturbance».
Code-Assistenz. Data Engineers und Entwickler nutzen GenAI als Co-Pilot: SQL-Abfragen generieren, Python-Skripte debuggen, dbt-Modelle erstellen. Das beschleunigt den Aufbau von Data Pipelines erheblich.
Berichterstellung. Aus strukturierten Daten (KPIs, Messwerte, Statusmeldungen) automatisiert lesbare Berichte generieren – für Management-Reportings, Übergabeprotokolle oder Audit-Dokumentation.
Stufe 2: Unternehmenswissen erschliessen (RAG)
Die nächste Stufe: GenAI mit den eigenen Unternehmensdaten verbinden, ohne das Modell selbst zu trainieren. Das Prinzip heisst RAG – Retrieval Augmented Generation.
So funktioniert RAG: Statt das LLM mit einer allgemeinen Frage zu füttern, durchsucht ein Retrieval-System zuerst die eigenen Dokumente (Handbücher, Wartungshistorien, Normen, Prozessdokumentationen) und gibt die relevanten Abschnitte als Kontext an das LLM weiter. Das Modell antwortet dann auf Basis der eigenen Unternehmensdaten – nicht auf Basis seines allgemeinen Trainings.
Beispiel Industrie: Ein Techniker fragt: «Welche Massnahmen wurden bei ähnlichen Vibrationsproblemen an der CNC-Fräse in den letzten 12 Monaten ergriffen?» Das RAG-System durchsucht das Wartungsprotokoll-Archiv und generiert eine zusammengefasste Antwort mit Quellenangaben.
Beispiel Verkehr: Ein Disponent fragt: «Was sind die häufigsten Ursachen für Verspätungen auf der Linie 6 im Winter?» Das System durchsucht Störungsmeldungen, Wetterdaten und Betriebsprotokolle und liefert eine analysierte Zusammenfassung.
Beispiel Verwaltung: Ein Sachbearbeiter fragt: «Welche Vorschriften gelten für die Beschaffung von IT-Dienstleistungen über 250'000 CHF?» Das System durchsucht interne Reglemente, Bundesrecht und Vergaberichtlinien.
Voraussetzung für RAG ist eine saubere Datenbasis. Die Dokumente müssen digitalisiert, strukturiert und auffindbar sein. Ohne eine solide Datenplattform und eine klare Data Governance liefert RAG unbrauchbare Ergebnisse – «Garbage in, Garbage out» gilt auch für GenAI.
Stufe 3: GenAI in Geschäftsprozesse einbetten
Die höchste Reifestufe: GenAI wird nicht als Einzeltool genutzt, sondern in bestehende Datenplattformen und Workflows integriert.
Automatisierte Datenaufbereitung. LLMs extrahieren strukturierte Informationen aus unstrukturierten Quellen: Sensormeldungen, E-Mails, PDF-Berichte, handschriftliche Notizen. Diese Daten fliessen dann in eine Data Pipeline und stehen für analytische Auswertungen (OLAP) oder Dashboards zur Verfügung.
Klassifikation und Routing. Eingehende Dokumente (Reklamationen, Störungsmeldungen, Anfragen) werden automatisch kategorisiert und an die richtige Stelle weitergeleitet. Ein Beispiel aus unserer Praxis: Für V-ZUG haben wir eine KI-Lösung entwickelt, die Servicefallmeldungen automatisch analysiert und klassifiziert. Solche Aufgaben lassen sich heute auch mit GenAI-Ansätzen lösen – oft schneller im Aufbau und flexibler bei neuen Kategorien.
Kombination mit klassischer KI. Das mächtigste Muster: Ein klassisches ML-Modell erkennt eine Anomalie (z.B. ungewöhnliche Vibrationswerte), und ein LLM generiert automatisch den dazugehörigen Wartungsauftrag mit Kontextinformationen, Handlungsempfehlungen und Ersatzteilvorschlägen. Maschine erkennt das Problem, GenAI erklärt es.
Worauf Unternehmen achten müssen
GenAI ist mächtig, aber kein Selbstläufer. Aus unserer Erfahrung in Industrie-, Verkehrs- und Verwaltungsprojekten sind das die kritischen Punkte:
Datenqualität bleibt entscheidend
GenAI verschiebt das Problem, löst es aber nicht: Statt gelabelte Trainingsdaten braucht man jetzt saubere, auffindbare Dokumente. Unternehmen, die ihre Daten noch in Excel-Silos verwalten, werden auch mit GenAI keinen Mehrwert erzielen. Der erste Schritt bleibt eine Datenlandkarte und eine klare Datenstrategie.
Datenschutz und Datensouveränität
Wenn vertrauliche Unternehmensdaten an einen Cloud-LLM-Dienst geschickt werden, stellen sich Fragen: Wo werden die Daten verarbeitet? Werden sie für das Training verwendet? Gerade für öffentliche Verwaltungen und Verkehrsunternehmen in der Schweiz ist das heikel. Lösungsansätze sind On-Premise-LLMs (z.B. Llama, Mistral), Azure OpenAI Service mit Schweizer Datenresidenz, oder Private Endpoints, die sicherstellen, dass Daten die eigene Infrastruktur nicht verlassen.
Halluzinationen und Vertrauen
LLMs erfinden Fakten. Das ist für kreative Texte harmlos, für Wartungsanweisungen oder medizinische Empfehlungen gefährlich. Die Lösung: GenAI nie als alleinige Entscheidungsquelle nutzen, sondern immer mit Quellenangaben (RAG) und menschlicher Überprüfung kombinieren. Für sicherheitskritische Systeme im Industrieumfeld ist das nicht optional, sondern Pflicht.
Kosten im Griff behalten
LLM-APIs kosten pro Token. Bei Tausenden automatisierten Anfragen pro Tag summiert sich das. Gute Architektur hilft: Kleinere, spezialisierte Modelle für Standardaufgaben, grosse Modelle nur für komplexe Analysen. Caching für wiederkehrende Anfragen. Und eine klare Kosten-Nutzen-Analyse vor dem Go-live.
GenAI und die bestehende Datenplattform
Ein Punkt, den viele übersehen: Generative AI funktioniert am besten, wenn sie auf einer soliden Datenplattform aufbaut. Ohne strukturierte Daten, ohne Data Pipelines, ohne Data Warehouse fehlt dem LLM der Kontext.
Das Zusammenspiel sieht typischerweise so aus:
Datenplattform (Fabric/Snowflake) → liefert strukturierte Daten (KPIs, Messwerte, Stammdaten)
Dokumentenspeicher (SharePoint/OneLake) → liefert unstrukturierte Daten (Berichte, Protokolle, Handbücher)
RAG-System → verbindet beide Quellen und macht sie für das LLM zugänglich
LLM (GPT-4, Claude, Llama) → generiert Antworten, Zusammenfassungen, Klassifikationen
Power BI / Dashboard → zeigt die Ergebnisse an – oder triggert automatisierte Workflows
Wer bereits eine Microsoft-Fabric-Plattform betreibt, hat den idealen Ausgangspunkt: OneLake als Datenbasis, Azure OpenAI Service als LLM-Backend, Power BI als Frontend. Alles im gleichen Ökosystem.
Wie Sie starten
GenAI-Projekte scheitern selten an der Technologie – sie scheitern an unklaren Zielen und fehlender Datengrundlage. Unser empfohlener Weg:
1. Use Case definieren. Nicht «wir wollen GenAI», sondern «wir wollen die Auswertung von 500 Störungsmeldungen pro Monat automatisieren». Je konkreter, desto besser.
2. Datenlage prüfen. Welche Daten und Dokumente sind verfügbar? In welchem Format? In welcher Qualität? Eine Datenlandkarte schafft den Überblick.
3. Proof of Concept (4–6 Wochen). Ein konkreter Use Case, ein begrenzter Dokumentensatz, ein funktionierender Prototyp. Ziel: beweisen, dass es funktioniert – und messen, wie viel Zeit es spart.
4. Architektur planen. Wo läuft das LLM? Wie werden die Daten angebunden? Wie wird die Qualität sichergestellt? Diese Fragen klären wir im Rahmen einer Datenstrategie.
5. In Produktion bringen. Vom PoC zur produktiven Lösung – inklusive Monitoring, Kostencontrolling und kontinuierlicher Verbesserung der Prompts und des RAG-Systems.
Wie wir Sie unterstützen
Wir verbinden Generative AI mit dem, was wir seit Jahren machen: Datenplattformen bauen, Daten integrieren und KI-Modelle in Produktion bringen. Ob klassische KI, GenAI oder eine Kombination aus beidem – wir finden den richtigen Ansatz für Ihren Use Case.
Unsere Erfahrung aus Projekten wie der automatisierten Serviceklassifikation bei V-ZUG und dem Aufbau von Datenplattformen auf Microsoft Fabric fliesst direkt in unsere GenAI-Beratung ein.
Sie möchten wissen, ob Generative AI für Ihren Use Case Sinn ergibt? Kontaktieren Sie uns – wir finden es gemeinsam heraus.