Synthetische Daten zum Anlernen eines KI Modells

Schluss mit der Parametrier-Hölle: KI-Bildverarbeitung vs. Klassisch

Autor: Nick Oehme
Kurzbeschreibung: Bio 

Klassische Bildverarbeitung vs. Deep Learning: Warum Regeln scheitern und Netze gewinnen

Wer schon einmal eine klassische industrielle Bildverarbeitung parametriert hat, kennt das Szenario: Montags funktioniert die Qualitätskontrolle einwandfrei, alle Gut-Teile werden erkannt, Fehler sicher aussortiert. Mittwochs steht die Produktion, weil die Morgensonne durch ein Fenster fällt und plötzlich 30 Prozent der einwandfreien Bauteile als Ausschuss klassifiziert werden (Pseudoausschuss).

Das Grundproblem klassischer Bildverarbeitung liegt in ihrer Natur: Sie basiert auf starren "Wenn-Dann"-Regeln. Ein menschlicher Experte definiert Schwellenwerte, Kantenstärken und Toleranzbereiche. Das System führt aus, was man ihm sagt – nicht mehr, nicht weniger. Diese regelbasierte Logik funktioniert hervorragend in kontrollierten Umgebungen mit konstanten Bedingungen. Doch die industrielle Realität sieht anders aus.

Die KI-basierte Qualitätskontrolle verspricht in diesem Zusammenhang eine ideale Lösung für variable Umgebungsbedingungen und Produktvarianz zu sein. In diesem Artikel geht es um den Unterschied zwischen KI-Bildverarbeitung und klassischer industrieller Bildverarbeitung im industriellen Kontext.

Das Grundproblem von regelbasierten Kamerasystemen mit industrieller Bildverarbeitung

Das Varianz-Problem ist der natürliche Feind jeder regelbasierten industriellen Bildverarbeitung: Schwankende Lichtverhältnisse, minimale Positionsabweichungen auf dem Förderband, unterschiedliche Chargeneigenschaften bei Materialien, Reflexionen auf metallischen Oberflächen – all diese Faktoren führen dazu, dass selbst perfekt eingestellte Systeme regelmäßig nachjustiert werden müssen.

Die Konsequenz? Sie produzieren mit Schwellenwerten und starren Parametern zwangsläufig Pseudoausschuss: Bauteile, die objektiv in Ordnung sind, aber aufgrund veränderter Randbedingungen vom System als fehlerhaft klassifiziert werden. Oder noch schlimmer: echte Fehler rutschen durch, weil die Toleranzen bewusst weit gestellt wurden, um die Pseudoausschussquote zu senken.

Genau hier setzt KI-Bildverarbeitung auf Basis von Deep Learning an – mit einem fundamental anderen Ansatz, der nicht auf Regeln, sondern auf erlernten Mustern basiert.

Technik-Vergleich: Wie "sehen" die beiden unterschiedlichen Kamerasysteme?

Klassische Bildverarbeitungssysteme funktionieren nach dem Prinzip der expliziten Programmierung. Ein Mensch – meist ein Bildverarbeitungsingenieur – analysiert den Prüffall und übersetzt ihn in mathematische Operationen:

  • Kantenfilter (Sobel, Canny) erkennen Konturen durch Helligkeitsgradienten
  • Blob-Analyse gruppiert zusammenhängende Pixel und zählt/vermisst sie
  • Schwellenwertverfahren (Thresholding) trennen Vorder- und Hintergrund anhand von Helligkeitswerten
  • Morphologische Operationen bereinigen Rauschen und schließen Lücken
  • Template Matching vergleicht Bildbereiche mit hinterlegten Referenzmustern

Der Prozess ist deterministisch und nachvollziehbar: "Wenn die Kantenlänge kleiner als x Pixel ist UND der Kontrast größer als y, dann handelt es sich um einen Kratzer." Diese Transparenz ist ein Vorteil – aber auch eine fundamentale Schwäche.

Das Problem dabei

Sie müssen dem System im Vorfeld exakt sagen, was ein Fehler ist. Jede Variante, jede Fehlerart, jede mögliche Abweichung muss antizipiert und in Regeln gegossen werden. Das ist Handwerk im klassischen Sinne – präzise, aber unflexibel.

KI-Bildverarbeitung mit Deep Learning: Statistik trifft Mustererkennung

Deep Learning, speziell Convolutional Neural Networks (CNNs), arbeiten grundlegend anders. Statt Regeln zu programmieren, trainieren Sie ein statistisches Modell mit Beispielen:

Das neuronale Netz besteht aus Millionen von Parametern, organisiert in Schichten. In den ersten Schichten lernt das Netz einfache Strukturen wie Kanten und Texturen zu erkennen. Tiefere Schichten kombinieren diese zu komplexeren Mustern – ähnlich wie das menschliche Gehirn von einfachen zu abstrakten Merkmalen fortschreitet.

Der entscheidende Unterschied: Sie zeigen dem System hunderte oder tausende Beispiele von Gut-Teilen und Fehlerbildern. Das Netz extrahiert selbstständig die relevanten Merkmale und deren statistische Verteilung. Es "lernt", was einen Kratzer ausmacht – nicht durch eine explizite Definition, sondern durch Mustererkennung über viele Beispiele hinweg.

Einfach gesagt: Sie zeigen der Software Beispielbilder wie Sie es bei einem Mitarbeiter machen würden. Nach vielen Beispielbildern weiß das System zwischen einzelnen Fehlerklassen zu unterscheiden, weil es das Muster (oder die Form) des Fehlerbildes versteht.

Quintessenz

Der KI-Ansatz ist toleranter gegenüber Varianz, weil er auf statistischen Verteilungen basiert statt auf absoluten Grenzwerten. Ein Kratzer wird auch bei leicht veränderter Beleuchtung erkannt, weil das Netz das zugrundeliegende Muster gelernt hat – nicht nur seine Erscheinung unter einer spezifischen Bedingung.

Deep Dive: Das Ende der "Parametrier-Hölle"

Jeder Ingenieur, der schon einmal eine industrielle Bildverarbeitung in Betrieb genommen hat, kennt sie: die Parametrier-Hölle. Sie stellen den Schwellenwert für Fehler A ein, und plötzlich wird Gut-Teil B als Ausschuss klassifiziert. Sie erhöhen die Toleranz, und schon rutschen echte Fehler durch. Sie fügen eine zusätzliche Regel für Variante C hinzu, und das gesamte Parameterset gerät aus dem Gleichgewicht.

Das Problem verschärft sich mit jedem neuen Produkt, jeder Fehlerklasse, jeder Umgebungsvariable. Die Parameterlandschaft wächst exponentiell:

  • Belichtungszeit und Blitzintensität
  • Schwellenwerte für Helligkeitsunterschiede
  • Mindest- und Maximalgrößen für Konturen
  • Kantenfilter-Parameter (Kernel-Größe, Sigma-Werte)
  • Region of Interest (ROI) Definitionen
  • Template-Match-Scores
  • Morphologische Filter-Settings

Bei komplexen Prüfaufgaben landen Sie schnell bei 50+ Parametern, die alle voneinander abhängig sind. Ändern Sie einen, beeinflussen Sie zwangsläufig andere. Das System wird fragil.

KI-Qualitätskontrollen mittels KI-basierte Kamerasysteme

Warum KI-Bildverarbeitung diese Hölle vermeidet

Deep Learning-Modelle haben natürlich auch Parameter – Millionen davon. Der entscheidende Unterschied: Sie müssen sie nicht manuell einstellen. Der Trainingsprozess optimiert diese Parameter automatisch auf Basis der bereitgestellten Beispieldaten.

Statt dutzende Schwellenwerte für verschiedene Lichtsituationen zu definieren, lernt das Netz die Toleranzbereiche selbst. Es erkennt: "Bei dieser Art von Bauteil variiert die Oberflächenhelligkeit typischerweise zwischen X und Y, und das ist normal. Erst wenn ein lokaler Bereich signifikant von diesem gelernten Muster abweicht, könnte es ein Fehler sein."

Ein konkretes Praxis-Beispiel: Oberflächeninspektion bei Automobilzulieferteilen

Stellen Sie sich die Inspektion von lackierten Stoßfängern vor. Die Aufgabe: Erkennung von Kratzern, Dellen und Farbfehlern auf hochglänzender, gekrümmter Oberfläche.

Mit klassischer industrieller Bildverarbeitung:

  • Sie benötigen eine perfekt kontrollierte Beleuchtung (Dome-Light oder strukturiertes Licht)
  • Sie definieren Schwellenwerte für Reflexionsmuster
  • Problem 1: Staub auf der Oberfläche erzeugt ähnliche Reflexionsmuster wie Kratzer
  • Problem 2: Die Krümmung führt zu variablen Reflexionswinkeln – Sie brauchen positionsabhängige Parameter
  • Problem 3: Unterschiedliche Lackfarben (Schwarz vs. Weiß) erfordern komplett unterschiedliche Parametersets
  • Ergebnis: 8-12 Stunden Parametrierung pro Farbvariante, regelmäßige Nachparametrierung bei Produktionsschwankungen

Mit KI-Bildverarbeitung:

  • Sie sammeln 500-1000 Bilder von Gut-Teilen und 200-300 Bilder mit verschiedenen Fehlertypen (Kratzer, Dellen, Farbfehler)
  • Sie annotieren die Fehler (markieren, wo sie sind)
  • Das CNN lernt während des Trainings:
    • Wie normale Reflexionen auf gekrümmten Oberflächen aussehen
    • Wie sich Staub von echten Fehlern unterscheidet (statistische Merkmale)
    • Welche Muster typisch für Kratzer sind (auch bei unterschiedlichen Winkeln)
  • Ergebnis: Das trainierte Modell funktioniert für alle Lackfarben, ist robust gegen Beleuchtungsschwankungen und erkennt neue Kratzer-Varianten, die es im Training nicht explizit gesehen hat

Der KI-Ansatz ist nicht "parameterlos" – aber die Parameter werden datengetrieben optimiert, nicht manuell justiert. Falls Sie sich vertiefend für die notwendigen Hardwarekomponenten zu KI-basierten Kamerasystemen interessieren, dann finden Sie vertiefende Infos dazu in unserem Hardware-Guide für die Produktion.

Der direkte Vergleich: Hard Facts

Kriterium

Klassische industrielle Bildverarbeitung

KI-Bildverarbeitung (Deep Learning)

Einrichtungszeit

2-3 Wochen für komplexe Prüffälle; jede Variante erfordert Neuparametrierung

4-6 Wochen Datensammlung + Training; neue Varianten durch Retraining

Robustheit gegenüber Varianz

Gering – reagiert empfindlich auf Licht, Position, Materialvarianz

Hoch – lernt Toleranzbereiche aus Trainingsdaten

Hardware-Anforderungen

CPU ausreichend, günstige Industriekameras

GPU für Training zwingend, für Inferenz empfohlen; hochwertige Kameras vorteilhaft

Wartungsaufwand

Hoch – regelmäßige Nachparametrierung bei Prozessänderungen

Gering– gelegentliches Retraining bei neuen Fehlertypen

Transparenz

Vollständig nachvollziehbar – jede Entscheidung ist regelbasiert

Black Box – Entscheidung statistisch, nicht direkt erklärbar

Skalierbarkeit

Neue Anlage + Neue Fehlerklassen = neue Regeln + Parametrierung

Copy & Paste auf weitere Anlagen, neue Fehlerklassen = Retraining

Datenabhängigkeit

Keine Trainingsdaten nötig

Hunderte bis Tausende annotierte Bilder erforderlich

Geeignet für

Einfache Geometrien, konstante Bedingungen, eindeutige Fehlerbilder

Komplexe Oberflächen, variable Bedingungen, subtile oder variierende Fehler

Typische Fehlerquote

>10% Pseudoausschuss bei optimaler Parametrierung

1-3% bei ausreichenden Trainingsdaten

Time-to-Market

Schnell für Standardfälle, langsam bei Komplexität

Initial langsam (Datensammlung), dann skalierbar

Der Trainings-Prozess: Was bedeutet "Lernen" konkret?

Ein häufiges Missverständnis in der Praxis: KI-Bildverarbeitung ist kein "Plug & Play"-System, bei dem Sie eine Software installieren und sofort loslegen können. Deep Learning bedeutet echte Arbeit – allerdings eine andere Art von Arbeit als bei klassischen Systemen.

Phase 1: Datensammlung

Sie benötigen repräsentative Bilddaten aus der tatsächlichen Produktion

  • Gut-Teile: 500-2000 Bilder unter verschiedenen Bedingungen (unterschiedliche Chargen, Tageszeiten, Kamerapositionen)
  • Fehlerhafte Teile: 200-1000 Bilder pro Fehlerklasse – je mehr Varianz, desto besser

Die Daten müssen die reale Produktionsvarianz abbilden. Ein häufiger Fehler: Training nur mit "perfekten" Aufnahmen unter Laborbedingungen. Das Modell funktioniert dann in der Praxis nicht.

Phase 2: Annotation

Bei Klassifikationsaufgaben (Gut/Schlecht) reicht ein Label pro Bild. Bei Objekterkennung (wo genau ist der Fehler?) müssen Sie jeden Fehler im Bild markieren – das ist zeitaufwendig, aber entscheidend für die Qualität.

Moderne Annotations-Tools beschleunigen diesen Prozess, aber rechnen Sie mit 2-5 Sekunden pro einfachem Bild, bis zu einer Minute bei komplexen Mehrfachfehlern.

Phase 3: Training

Das eigentliche Training läuft automatisiert auf GPU-Hardware (NVIDIA-Grafikkarten oder spezialisierte KI-Beschleuniger). Für typische industrielle Anwendungen:

  • Trainingszeit: 2-12 Stunden je nach Datenmenge und Modellkomplexität
  • Iterationen: Meist 3-5 Trainingsläufe mit Optimierungen

Sie überwachen dabei Metriken wie Genauigkeit, Präzision und Recall auf einem separaten Validierungsdatensatz.

Phase 4: Validierung

Bevor das Modell in die Produktion geht, testen Sie es mit bisher ungesehenen Daten. Erst wenn die Leistung hier stimmt, ist das Modell einsatzbereit.


KI ist also kein "Knopfdruck", aber die Investition zahlt sich aus, wenn die Alternative eine endlose Parametrier-Schleife ist.

"KI oder klassisch" - das hier hier die Frage? W Entscheidungshilfen für die Praxis

Die Wahl zwischen klassischer industrieller Bildverarbeitung und KI-Bildverarbeitung ist keine Glaubensfrage, sondern sollte auf pragmatischen Kriterien basieren.

KI-Bildverarbeitung, wenn

  • Hohe Varianz: Beleuchtung, Position oder Materialeigenschaften schwanken
  • Komplexe Oberflächen: Reflexionen, Texturen, gekrümmte Geometrien
  • Subtile Fehler: Kratzer, Farbabweichungen, Oberflächenunregelmäßigkeiten, die nicht durch simple Schwellenwerte erfassbar sind
  • Viele Fehlervarianten: Fehler treten in unterschiedlichen Ausprägungen auf
  • Skalierbarkeit: Sie planen, das System auf viele ähnliche Produkte auszurollen
  • Kontinuierliche Verbesserung: Sie können regelmäßig neue Trainingsdaten sammeln
  • Typische Anwendungen: Oberflächeninspektion, Schweißnahtprüfung, Textilinspektion, Lebensmittel-Qualitätskontrolle, komplexe Montageprüfung

Industrielle Bildverarbeitung, wenn

  • Deterministische Aufgaben: Sie messen, zählen oder positionieren (Längen, Abstände, Anzahl von Objekten)
  • Stabile Bedingungen: Beleuchtung und Bauteilposition sind hochgradig kontrollierbar
  • Einfache Fehlerbilder: Fehler sind eindeutig definierbar (Loch fehlt, Farbe außerhalb RGB-Bereich)
  • Hohe Transparenzanforderungen: Nachvollziehbarkeit ist regulatorisch gefordert (z.B. Medizintechnik)
  • Schneller Start: Sie brauchen eine Lösung in Tagen, nicht Wochen
  • Keine Trainingsdaten: Sie haben keinen Zugang zu hunderten Fehlerbildern
  • Typische Anwendungen: Anwesenheitsprüfung, Vermessung, Codelesung (OCR/Barcodes), einfache Gut/Schlecht-Sortierung bei kontrastreichen Objekten

Die ROI-Frage: Wann rechnet sich der KI-Aufwand?

Grobe Faustformel für die Wirtschaftlichkeit:

KI lohnt sich, wenn:

  • Die Parametrierungszeit bei klassischen Systemen > 5 Tage pro Produktvariante liegt
  • Sie mehr als 3 Produktvarianten mit ähnlichen Fehlerbildern haben
  • Der Wartungsaufwand (Nachparametrierung) > 2 Personentage pro Monat kostet
  • Die Pseudoausschussquote bei klassischen Systemen > 5% liegt und echte Kosten verursacht
  • Fehlerbilder so komplex sind, dass klassische Ansätze gar nicht funktionieren

Klassik lohnt sich, wenn:

  • Die Aufgabe in < 2 Tagen parametrierbar ist und stabil läuft
  • Sie nur ein oder zwei Produktvarianten haben
  • Die Fehlerbilder eindeutig und stabil sind
  • Sie keine GPU-Infrastruktur haben und diese nicht aufbauen wollen

Bedenken Sie dabei: KI-Bildverarbeitung hat höhere Initialkosten (Hardware, Datensammlung, Training), aber niedrigere laufende Kosten bei variablen Produktionsumgebungen sowie einen Rollout auf andere Anlagen.

Fazit: KI ist kein Allheilmittel – aber bei optischer Varianz unschlagbar

Klassische industrielle Bildverarbeitung und KI-Bildverarbeitung sind keine konkurrierenden Technologien, sondern komplementäre Werkzeuge mit unterschiedlichen Stärken.

Klassische Systeme liefern präzise, nachvollziehbare Ergebnisse bei deterministischen Aufgaben unter kontrollierten Bedingungen. Sie sind schnell einsatzbereit und brauchen keine Trainingsdaten. Für Vermessungen, Positionierungen und einfache Gut/Schlecht-Entscheidungen sind sie oft die wirtschaftlichere Wahl.

Deep Learning-basierte KI-Bildverarbeitung zeigt ihre Überlegenheit überall dort, wo Varianz, Komplexität und subtile Muster die Regel sind. Schwankende Lichtverhältnisse, variierende Materialeigenschaften, komplexe Oberflächenstrukturen – Situationen, in denen regelbasierte Systeme in der Parametrier-Hölle versinken, sind das natürliche Terrain neuronaler Netze.

Die Frage ist also nicht "Klassisch oder KI?", sondern:

  • Welche Teilaufgaben meiner Qualitätskontrolle sind deterministisch und welche erfordern Mustererkennung?
  • Wo liegt der wirtschaftliche Kipppunkt zwischen Parametrierungsaufwand und Trainingsaufwand?

Wenn Sie Ihre KI-basierte Qualitätskontrolle in einen durchgängigen Prozess integrieren möchten – von der Datensammlung über das Training bis zum produktiven Einsatz – finden Sie hier unseren kompletten Guide zur automatisierten Qualitätsprüfung in der Produktion einen umfassenden Leitfaden für die praktische Umsetzung.

Kostenfreier Machbarkeitstest?

Jedes Quartal vergeben wir 2 Plätze für einen kostenfreien Machbarkeitstest (Wert: 1.500,- EUR), weil daraus in den meisten Fällen konkrete Projekte resultieren.