Fertigungs- und andere industrielle Prozesse befinden sich in einem enormen Umbruch. Initiativen wie das Industrial Internet of Things (IIoT) versprechen eine deutliche Steigerung der betrieblichen Effizienz. Infolgedessen werden mit beispielloser Geschwindigkeit immer mehr Sensoren eingeführt, mit deren Hilfe IIoT-Applikationen erfassen können, was in der realen Welt der Produktionsprozesse, der Industrieautomatisierung und der Qualitätskontrolle vor sich geht. Umgebungs-, Strömungs- und Drucksensoren können viele Messwerte liefern, doch einer der wichtigsten menschlichen Sinne, die IIoT-Systeme vollständig als Prozess managen müssen, ist der Sehsinn. Maschinelles Sehen, oft auch als Computer Vision oder Machine Vision bezeichnet, basiert auf schnellen Bild- und Videoverarbeitungstechniken in Verbindung mit neuronalen Netzen.
Durch die Einführung des Sehens in industriellen Fertigungs- oder Montageprozessen bietet Machine Vision praktisch unbegrenzte Anwendungsmöglichkeiten. Deshalb werden auch in allen Branchen Machine-Vision-Systeme für die verschiedensten Anforderungen eingesetzt. So lässt sich mittels Machine Vision beispielsweise erkennen, ob eine Flasche Duschgel nicht ausreichend gefüllt oder das Etikett schräg oder an der falschen Stelle angebracht wurde. Sie kann auch einen Stellantrieb veranlassen, nicht richtig verschlossene, gesprungene, zerbrochene oder verformte Flaschen in einen Ausschussbehälter zu schieben. Ein weiteres Beispiel ist etwa die komplexe automatisierte Montage mechanischer Teile durch einen Industrieroboter. Machine Vision kann eingesetzt werden, um zu prüfen, ob die Teile für die Montage korrekt ausgerichtet sind, oder vor dem nächsten Prozessschritt festzustellen, ob sie korrekt miteinander verbunden wurden.
Bei der Implementierung einer Machine-Vision-Applikation sind verschiedene Faktoren zu berücksichtigen. Erstens muss das Entwicklungsteam entscheiden, ob seine Systemanforderungen mit einfachen Bildverarbeitungstechniken erfüllt werden können oder ob es um eine komplexere Aufgabe geht, für die ein neuronales Deep-Learning-Netz besser geeignet ist.
Die vielleicht bedeutendsten Faktoren sind die Bildverarbeitungsgeschwindigkeit und die von der Geschwindigkeit des Produktionslinienprozesses abhängige Rechenlatenz. Um die Flexibilität beim Design und bei der Implementierung zu gewährleisten, sollte eine Machine-Vision-Plattform auch verschiedene Bild- und Videoprotokolle sowie Bildraten unterstützen und damit für eine breite Palette von Applikationen anpassbar und skalierbar sein.
Wie die oben genannten Anwendungsbeispiele zeigen, können die Rechenanforderungen für Machine Vision stark variieren. Die meisten High-End-Mikroprozessoren sind perfekt für rechenintensive Aufgaben geeignet, doch Field-Programmable Gate Arrays (FPGAs) eignen sich besonders gut für die Implementierung deterministischer Techniken zur parallelen Verarbeitung von Bildern und Videostreams mit hohen Datenraten. Und sie sind ideal für den Einsatz neuronaler Netz-Algorithmen wie konvolutionale neuronale Netze, die Bilder in ähnlicher Weise und mit ähnlich hoher Genauigkeit auswerten sollen wie das menschliche Gehirn.
Das mit der Implementierung eines Machine-Vision-Systems für die verschiedensten industriellen Anwendungsfälle – seien es Bildverarbeitungs- oder neuronale Netzwerktechniken – betraute Entwicklungsteam benötigt eine flexible Prototyping-Plattform als Grundlage für sein Design.
Das Microsemi/Microchip PolarFire-FPGA-Video- und Bildverarbeitungskit ist eine umfassende und leistungsstarke Evaluierungsplattform für Prototyping und Test von Machine-Vision-Applikationen. Mit zwei Kamerasensoren, zahlreichen Display-Schnittstellen sowie Ein- und Ausgängen für Peripheriegeräte unterstützt das Kit 4k-Bildverarbeitung und Protokolle wie HDMI 2.0, DSI, MIPI CSI-2 TX, MIPI CSI-2 RX und HD/3G SDI. Das PolarFire FPGA verfügt über ein 300K-Logikelement, 4 GB DDR-Speicher und 1 GB Flash-Speicher für die Pufferung (Abbildung 1).
Abbildung 1: Das Microsemi/Microchip PolarFire-FPGA-Video- und Bildverarbeitungskit mit dem Plugin-Kameraboard (Quelle: Microchip)
Das Kit beinhaltet eine Referenzdesignapplikation zur Demonstration der Bild-in-Bild-, Video-Stitching- und Image-Panning-Funktionen. Disparitätskarten ermöglichen die Einschätzung der Bildtiefe. Die Software des Kits verfügt über Kantenerkennungs-IP auf Grundlage eines Sobel-Filters, der das Extrahieren von Objektkanten zur Erkennung von Bildmerkmalen ermöglicht.
Machine Vision ist eine Schlüsselkomponente jedes industriellen Automatisierungsprozesses. Mit einer speziell für Machine-Vision-Applikation ausgelegten FPGA-basierten Entwicklungsplattform wie dem Microsemi/Microchip PolarFire-FPGA-Video- und Bildverarbeitungskit lässt sich die Entwicklung und Bereitstellung beschleunigen.
Robert Huntley ist HND-qualifizierter Ingenieur und technischer Redakteur. Er verfügt über langjährige Erfahrung in den Bereichen Telekommunikation, Navigationssysteme und Embedded Applications Engineering und schreibt technische und praktische Beiträge zu den verschiedensten Themen für Mouser Electronics.