Qu'est-ce que l'inspection visuelle par IA ? Une définition pratique pour 2026

L'inspection visuelle par IA, c'est l'usage de modèles d'apprentissage automatique pour détecter, classer et noter les défauts produit à partir d'images, en général en temps réel sur une ligne de production. Voilà la version en une phrase. Le reste de ce billet, c'est la version dont tu as besoin quand quelqu'un sur la ligne te demande si ton nouvel outil d'inspection est de la « vraie IA » ou juste une caméra avec un moteur de règles derrière.
La réponse courte, c'est que les deux sont différents dans la façon dont ils sont construits, ce qu'ils peuvent attraper et combien de temps ils restent utiles. La réponse longue suit.
L'inspection visuelle par IA en un paragraphe
Tu mets une caméra au-dessus d'un produit. La caméra envoie des images à un modèle d'apprentissage automatique. Le modèle a été entraîné sur des exemples étiquetés de pièces bonnes et de pièces mauvaises. Pour chaque nouvelle image, il sort une décision : pass, fail ou flag pour revue. Cette décision part vers un automate, un MES ou un écran opérateur. Toute la boucle tourne en moins d'une seconde sur du matériel récent, et elle continue de marcher sans changement de code quand le produit a de petites variations naturelles que le moteur de règles n'aurait jamais su gérer.
Voilà l'inspection visuelle par IA. Tout le reste de ce billet, c'est soit un détail sur la façon dont le modèle est entraîné, soit un détail sur la façon dont l'inspection s'intègre dans l'usine.
En quoi l'inspection visuelle par IA diffère de la vision industrielle classique
La vision industrielle classique (aussi appelée vision à règles) marche en écrivant du code qui dit des choses du genre « le logo doit être noir, centré à 0,5 mm de ce point, et pas plus clair que 30 % de gris ». Les règles sont précises. Elles cassent aussi à la seconde où le produit dérive, où l'éclairage change ou qu'on introduit une nouvelle variante.
L'inspection visuelle par IA remplace la plupart de ces règles écrites à la main par un modèle entraîné. Au lieu de décrire la règle, tu montres au modèle 50 à 500 exemples de pièces « bonnes » et « mauvaises » et tu le laisses trouver le motif. Le compromis, c'est que tu as besoin d'exemples étiquetés (la donnée d'entraînement), mais tu obtiens un système qui gère la variation bien mieux et que tu peux réentraîner en ligne quand quelque chose de nouveau apparaît.
En pratique, la plupart des vraies usines utilisent les deux. Les règles marchent encore très bien pour les mesures géométriques précises : « ce trou fait-il 4,2 mm de diamètre ? ». L'IA gagne sa place sur les défauts visuels, subjectifs, désordonnés : rayures, bavures de couleur, état de surface, contamination, erreurs d'assemblage.
Les trois types de modèle IA dont on te parlera
Les fournisseurs utilisent beaucoup de mots marketing interchangeables. Les modèles sous-jacents tombent en général dans un des trois sceaux.
Classification. Le modèle dit « cette pièce est de type défaut A, B ou bonne ». Simple. Marche quand les types de défauts sont connus à l'avance et que tu as des exemples étiquetés de chaque.
Détection d'anomalies. Le modèle est entraîné uniquement sur les pièces bonnes et signale tout ce qui a l'air différent, sans savoir de quel type de défaut il s'agit. Utile quand tu ne peux pas énumérer chaque défaut possible, ce qui est le cas dans la plupart des vraies usines.
Segmentation. Le modèle dessine un masque au pixel près autour du défaut. Utile quand tu as besoin de mesurer la surface d'un défaut, de compter les défauts individuels ou de router la pièce en fonction de l'emplacement du défaut. Plus cher à étiqueter.
La plupart des vrais déploiements sont une combinaison. La détection d'anomalies attrape les inconnus, la classification trie les connus et la segmentation gère les cas où il faut une mesure précise.
Ce sur quoi l'inspection visuelle par IA est vraiment bonne
Cinq catégories de défauts où l'IA bat régulièrement à la fois les humains et la vision à règles :
- Défauts de surface subtils. Micro-rayures, variations de couleur, irrégularités de glaçage, contamination. Les humains fatiguent. Les règles ne savent pas décrire « ça cloche ».
- Produits variables. Matériaux naturels (bois, pierre, céramique), produits avec variation intentionnelle (pièces finies à la main), pièces où chaque lot a l'air légèrement différent.
- Vérification d'assemblage. Le bon boulon est-il là ? L'étiquette est-elle droite ? Les 12 composants sont-ils tous présents ? Difficile à écrire en règle. Facile à montrer en exemples.
- Défauts rares. Un défaut qui apparaît une fois sur 10 000 pièces. Les humains le ratent par ennui. Les règles ne s'écrivent pas parce que personne n'a vu assez d'exemples. La détection d'anomalies le signale sans avoir besoin de catalogue.
- Comparaison à des plans ou des spécifications. Les modèles récents peuvent comparer une pièce à son plan d'ingénierie et signaler les écarts, ce qui était encore un sujet de recherche en 2023.
Et cinq où l'IA n'est pas le bon outil :
- Métrologie dimensionnelle de haute précision. Pieds à coulisse, scanners laser et palpeurs gagnent encore pour la mesure au micromètre.
- Défaut unique bien défini sur un produit stable. Si tu as une seule règle qui marche et un produit qui ne change jamais, un moteur de règles est plus simple et moins cher.
- Très petits volumes. Sous quelques centaines de pièces par poste, une personne avec un bon éclairage est souvent plus rapide et moins chère.
- Pièces transparentes ou miroir sans éclairage spécialisé. L'IA galère sur les reflets de la même façon que les humains. La parade, c'est l'éclairage, pas un meilleur modèle.
- Défauts visibles uniquement dans des longueurs d'onde non visibles. L'IA travaille sur l'image qu'elle reçoit. Si le défaut n'apparaît qu'en rayons X, en thermique ou en ultrasons, il te faut d'abord le bon capteur, et l'IA en second.
À quoi ressemble un déploiement type d'inspection visuelle par IA
Un workflow simple et réaliste pour un premier déploiement :
Premièrement, tu collectes 200 à 500 images de pièces bonnes et 20 à 200 images de pièces mauvaises, idéalement réparties sur plusieurs équipes, opérateurs et lots. C'est l'étape la plus dure et la plus sous-estimée. Si la donnée d'entraînement est étroite, le modèle est étroit.
Deuxièmement, tu étiquettes les images. Pour la classification, tu tagues chaque image avec son type de défaut. Pour la détection d'anomalies, tu n'as besoin que des bonnes. Pour la segmentation, tu dessines autour des défauts. Les outils modernes en font une grande partie en semi-automatique.
Troisièmement, le modèle s'entraîne. Sur du matériel récent, ça prend quelques minutes à quelques heures, pas des jours.
Quatrièmement, tu déploies. Le modèle tourne sur un appareil edge à côté de la ligne (rapide, hors ligne) ou dans le cloud (plus simple à gérer, demande de la connectivité). Les deux sont valides. Ce qui compte, c'est que le budget latence colle à ton temps de cycle.
Cinquièmement, et c'est l'étape que la plupart des équipes sautent, tu monitores et tu réentraînes. Les produits dérivent. L'éclairage change. De nouveaux défauts apparaissent. Un bon outil d'inspection par IA fait du réentraînement un job de 10 minutes, pas un projet d'ingénierie de 2 semaines. Si le tien ne le fait pas, c'est l'écart fonctionnel qui te fera mal six mois plus tard.
Où Enao Vision se place
On a construit Enao Vision autour de la détection d'anomalies en premier, avec la classification et la segmentation par-dessus, parce que c'est l'ordre dont la plupart des PME industrielles ont vraiment besoin. L'inspection tourne sur un iPhone ou un appareil Android en bord de ligne, les images restent locales par défaut et le réentraînement, c'est quelques taps sur une tablette. On a bâti la solution comme ça plutôt que de vendre une énième smart camera à 80 000 euros.
Comment savoir que tu es prêt pour l'inspection visuelle par IA
Trois vérifications :
Tu as un défaut qui coûte du vrai argent (rebut, retouche, retours clients) et ton inspection actuelle en attrape moins que tu ne voudrais.
Tu peux collecter quelques centaines d'images du défaut sans refaire ta ligne.
Tu as quelqu'un sur le terrain, qualité ou ops, qui peut passer deux heures à étiqueter et à lancer un premier round d'entraînement. Pas un data scientist, pas un ingénieur fournisseur. Une vraie personne de ton équipe.
Si les trois sont vrais, un pilote en une à deux semaines est réaliste. Si un des trois est faux, le goulot est opérationnel, pas technique, et aucun outil IA ne te le réparera.