Was ist KI-basierte Sichtprüfung? Eine praktische Definition für 2026

KI-basierte Sichtprüfung ist der Einsatz von Machine-Learning-Modellen, die Fehler an Produkten aus Bildern erkennen, klassifizieren und bewerten, meist in Echtzeit auf der Produktionslinie. Das ist die Ein-Satz-Version. Den Rest brauchst du, wenn dich jemand an der Linie fragt, ob dein neues Inspektionstool "echtes KI" ist oder nur eine Kamera mit Regel-Engine dahinter.
Die kurze Antwort: Die beiden unterscheiden sich darin, wie sie gebaut sind, was sie erkennen können und wie lange sie nützlich bleiben. Die lange Antwort steht unten.
KI-basierte Sichtprüfung in einem Absatz
Du stellst eine Kamera über ein Produkt. Die Kamera schickt Bilder an ein Machine-Learning-Modell. Das Modell wurde an gelabelten Beispielen von Gut- und Schlechtteilen trainiert. Für jedes neue Bild gibt es eine Entscheidung aus: iO, niO oder "manuell prüfen". Diese Entscheidung geht an eine SPS, ein MES oder einen Operatorbildschirm. Der ganze Loop läuft auf moderner Hardware unter einer Sekunde, und er funktioniert weiter, wenn das Produkt kleine natürliche Schwankungen hat, die die alte Regel-Engine nie beherrschen konnte.
Das ist KI-basierte Sichtprüfung. Alles andere in diesem Beitrag ist entweder ein Detail dazu, wie das Modell trainiert wird, oder dazu, wie die Inspektion in die Fabrik passt.
Wie sich KI-Sichtprüfung von klassischer Bildverarbeitung unterscheidet
Klassische Bildverarbeitung (auch regelbasierte Bildverarbeitung genannt) funktioniert, indem man Code schreibt wie "das Logo muss schwarz sein, zentriert auf diesem Punkt mit maximal 0,5 mm Abweichung und nicht heller als 30% Grau". Die Regeln sind präzise. Sie brechen auch sofort, sobald das Produkt driftet, sich das Licht ändert oder eine neue Variante eingeführt wird.
KI-basierte Sichtprüfung ersetzt die meisten dieser handgeschriebenen Regeln durch ein trainiertes Modell. Statt die Regel zu beschreiben, zeigst du dem Modell 50 bis 500 Beispiele von "gut" und "schlecht" und lässt es das Muster finden. Der Preis ist, dass du gelabelte Beispiele (die Trainingsdaten) brauchst, dafür bekommst du ein System, das Varianz deutlich besser verkraftet und das du an der Linie nachtrainieren kannst, wenn etwas Neues auftaucht.
In der Praxis setzen die meisten echten Werke beides ein. Regeln funktionieren wunderbar für präzise geometrische Messungen: "Ist diese Bohrung 4,2 mm im Durchmesser?" KI holt sich ihre Berechtigung bei den unsauberen, visuellen, subjektiven Fehlern: Kratzer, Farbunschärfen, Oberflächenfinish, Verschmutzung, Montagefehler. Unser Guide zu Machine-Vision-Systemen geht tiefer darauf ein, wie die Architekturen aussehen, die dir begegnen werden.
Die drei Modelltypen, von denen du hören wirst
Anbieter benutzen viele austauschbare Marketing-Wörter. Die zugrunde liegenden Modelle fallen meist in einen von drei Töpfen.
Klassifikation. Das Modell sagt "dieses Teil ist Fehlertyp A, B oder Gutteil". Einfach. Funktioniert, wenn die Fehlertypen vorab bekannt sind und du von jedem gelabelte Beispiele hast.
Anomalieerkennung. Das Modell wird nur auf Gutteilen trainiert und meldet alles, was anders aussieht, ohne zu wissen, welche Art Fehler es ist. Nützlich, wenn du nicht jeden möglichen Fehler aufzählen kannst, was in den meisten echten Werken der Fall ist. Wir haben einen kompletten Beitrag zu Anomalieerkennung, der tiefer erklärt, wann welcher Typ gewinnt.
Segmentierung. Das Modell zeichnet eine pixelgenaue Maske um den Fehler. Nützlich, wenn du die Fehlerfläche messen, einzelne Fehler zählen oder das Teil basierend auf der Fehlerposition routen musst. Teurer beim Labeln.
Die meisten echten Deployments sind Kombinationen. Anomalieerkennung fängt die Unbekannten, Klassifikation sortiert die Bekannten und Segmentierung übernimmt die Fälle, in denen du präzise Messung brauchst.
Worin KI-Sichtprüfung wirklich gut ist
Fünf Fehlerkategorien, in denen KI konsequent sowohl Menschen als auch regelbasierte Systeme schlägt:
Subtile Oberflächenfehler. Mikrokratzer, Farbvariation, Glasur-Inkonsistenzen, Verschmutzung. Menschen ermüden. Regeln können "sieht komisch aus" nicht beschreiben.
Variable Produkte. Natürliche Materialien (Holz, Stein, Keramik), Produkte mit gewollter Variation (handgefertigte Teile), Teile, bei denen jede Charge leicht anders aussieht.
Montagekontrolle. Sitzt die richtige Schraube? Ist das Etikett gerade? Sind alle zwölf Komponenten da? Schwer als Regel zu schreiben. Einfach als Beispiele zu zeigen.
Seltene Fehler. Ein Fehler, der alle 10.000 Teile einmal auftaucht. Menschen übersehen ihn aus Langeweile. Regeln kann man nicht schreiben, weil niemand genug Beispiele gesehen hat. Anomalieerkennung meldet ihn ohne Katalog.
Abgleich gegen Zeichnungen oder Spezifikationen. Neue Modelle können ein Teil gegen seine Konstruktionszeichnung vergleichen und Abweichungen melden. Das war noch 2023 ein Forschungsthema.
Und fünf, wo KI nicht das richtige Werkzeug ist:
Hochpräzise dimensionale Messtechnik. Messschieber, Lasertaster und taktile Sensoren gewinnen weiter bei Mikrometer-Messungen.
Ein definierter Fehler auf einem stabilen Produkt. Wenn du eine funktionierende Regel hast und das Produkt sich nie ändert, ist eine Regel-Engine einfacher und günstiger.
Sehr geringe Stückzahlen. Unter ein paar hundert Teilen pro Schicht ist eine Person mit gutem Licht oft schneller und günstiger.
Transparente oder hochglänzende Teile ohne Speziallicht. KI tut sich mit Blendung genauso schwer wie Menschen. Die Lösung ist das Licht, nicht ein besseres Modell. Unser Guide zu Beleuchtung in der Bildverarbeitung geht darauf im Detail ein.
Fehler, die nur in nicht-sichtbaren Wellenlängen zu sehen sind. KI arbeitet mit dem Bild, das sie bekommt. Wenn der Fehler nur in Röntgen, Thermografie oder Ultraschall sichtbar ist, brauchst du zuerst den richtigen Sensor und erst dann KI.
Wie ein typisches Deployment abläuft
Ein einfacher, realistischer Workflow für das erste Deployment:
Zuerst sammelst du 200 bis 500 Bilder von Gutteilen und 20 bis 200 Bilder von Schlechtteilen, möglichst verteilt über Schichten, Operatoren und Chargen. Das ist der härteste und am meisten unterschätzte Schritt. Wenn die Trainingsdaten eng sind, ist das Modell eng.
Dann labelst du die Bilder. Für Klassifikation taggst du jedes Bild mit seinem Fehlertyp. Für Anomalieerkennung brauchst du nur die Gutteile. Für Segmentierung zeichnest du um die Fehler. Moderne Tools machen einen großen Teil davon halbautomatisch.
Dann trainiert das Modell. Auf moderner Hardware sind das Minuten bis Stunden, keine Tage.
Dann deployst du. Das Modell läuft entweder auf einem Edge-Gerät an der Linie (schnell, offline) oder in der Cloud (einfacher zu verwalten, braucht Konnektivität). Beides ist valide. Entscheidend ist, dass das Latenzbudget zur Taktzeit passt.
Und zum Schluss, der Schritt, den die meisten Teams überspringen: Monitoring und Retraining. Produkte driften. Licht ändert sich. Neue Fehler tauchen auf. Ein gutes KI-Inspektionstool macht Retraining zu einem Zehn-Minuten-Job, nicht zu einem Zwei-Wochen-Projekt. Wenn deins das nicht tut, ist das die Feature-Lücke, die dich nach sechs Monaten einholt. Unser Guide zur Auswahl von Software für visuelle Qualitätskontrolle geht die sechs Merkmale durch, die Tools unterscheiden, die gut altern, von denen, die es nicht tun.
Wo Enao Vision passt
Wir haben Enao Vision um Anomalieerkennung herum gebaut und Klassifikation und Segmentierung darauf gelegt, weil das die Reihenfolge ist, in der KMU-Hersteller sie wirklich brauchen. Die Inspektion läuft auf einem iPhone oder einem Android-Gerät an der Linie, Bilder bleiben standardmäßig lokal und Retraining ist ein paar Taps auf einem Tablet. Unsere Gründungsgeschichte erklärt, warum wir es so gebaut haben, statt eine weitere 80.000-Euro-Smart-Kamera zu verkaufen.
Wie du weißt, dass du bereit für KI-Sichtprüfung bist
Drei Checks:
Du hast einen Fehler, der echtes Geld kostet (Ausschuss, Nacharbeit, Kundenreklamationen) und deine aktuelle Prüfung erkennt weniger davon, als du willst.
Du kannst ein paar hundert Bilder dieses Fehlers sammeln, ohne deine Linie umzubauen.
Du hast jemanden an der Linie, in der QA oder in der Produktion, der zwei Stunden mit Labeln und einem ersten Trainingslauf verbringen kann. Kein Data Scientist, kein Anbieter-Engineer. Eine echte Person aus deinem Team.
Wenn alle drei stimmen, ist ein Pilot-Deployment in ein bis zwei Wochen realistisch. Wenn eines nicht stimmt, ist der Engpass operational, nicht technisch, und kein KI-Tool wird ihn für dich beheben.