TensorFlow-Experten bauen erstaunliche Modelle. Mit der vom Google Brain Team entwickelten Open-Source-Plattform für maschinelles Lernen ermöglicht TensorFlow Unternehmen textbasierte Sprachsuch- und Gesichtserkennungslösungen. TensorFlow kann auch die Grundlage für die Echtzeit-Objekterkennung und andere Anwendungsfälle für maschinelles Sehen in der Fertigung sein. Die von Ihnen erstellten TensorFlow-Modelle können beispielsweise Roboterführungssysteme antreiben, effiziente Inspektions- und Montageverifizierungslösungen ermöglichen, intelligente Bestands- und Anlagenkontrollsysteme ermöglichen und die Maschinenleistung optimieren. Darüber hinaus haben sie das Potenzial, Herstellern dabei zu helfen, die Produktqualität zu verbessern, sich wiederholende Aufgaben zu automatisieren, um effizienter zu arbeiten und Ausfallzeiten zu vermeiden.
Es hat jedoch einen Haken, den maximalen Nutzen aus den von Ihnen erstellten eleganten TensorFlow-Modellen zu erzielen. Sie müssen einen Weg finden, Ihr TensorFlow-Modell mit den Maschinen des Herstellers zu verbinden, damit sie tatsächlich etwas tun.
Machine Vision mit Automatisierung ist kompliziert
Das Bereitstellen von TensorFlow-Modellen in realen, industriellen Umgebungen und das Auslösen geeigneter Aktionen ist ein komplexer, mehrstufiger Prozess. Nachdem Sie Ihr Modell entwickelt haben, müssen Sie:
- Trainiere es
- Bereitstellen
- Videostreaming aktivieren
- Entwickeln Sie eine Anwendung, die Inferenzdaten verwendet, um eine gewünschte Ausgabe zu erzeugen
- Erstellen Sie eine geeignete Benutzeroberfläche
- SPS-Konnektivität aktivieren
Zu den häufigsten Hürden in diesem Prozess gehören:
1. Zugriff auf Trainingsdaten
Ein Fertigungsbetrieb kann IT- und OT-Lösungen verschiedener Anbieter verwenden, die mehrere Datenströme erzeugen, oft mit unterschiedlich formatierten Daten. Um ein TensorFlow-Modell zu trainieren und zu testen, benötigen Sie jedoch Zugriff auf alle Arten von Daten, die Ihr System verwendet, damit Ihr Modell im realen Betrieb effektiv funktioniert. Um diese Herausforderung noch weiter zu verstärken, kann ein Betrieb Legacy-Geräte verwenden, die wichtige Daten produzieren, aber keine einfache Möglichkeit bieten, sich mit dem Netzwerk zu verbinden. Sie benötigen eine Möglichkeit, alle Datenströme einzubinden und den Datenfluss während des Modelltrainings und -tests sowie im laufenden Betrieb zu ermöglichen.
2. Bereitstellen von TensorFlow-Modellen am Edge
In einer realen Anwendung besteht die beste Strategie möglicherweise darin, Ihr TensorFlow-Modell über TensorFlow Lite in eingebetteten, Internet of Things (IoT) oder anderen Edge-Geräten bereitzustellen. Machine Learning-Funktionen am Edge können die Latenz reduzieren und die Zuverlässigkeit erhöhen, aber Sie müssen Komponenten für Ihr System auswählen, die rauen Industrieumgebungen standhalten und gleichzeitig alle erforderlichen Verarbeitungs- und Leistungsanforderungen erfüllen.
3. Konvertieren von Inferenzdaten in Automatisierungs- und Kontrollgeräte
Sobald Ihr TensorFlow-Modell erfolgreich trainiert wurde, müssen Sie auch eine effiziente Möglichkeit entwickeln, Gerätefunktionen basierend auf Inferenzdaten zu automatisieren, z. Ihr Modell muss mit Industrieanlagen „sprechen“.
Der beste Weg, TensorFlow in der Fabrik auszuführen
Wenn Ihr Fachgebiet TensorFlow ist, liegt Ihr Fachwissen wahrscheinlich nicht im Bereich Computer Numerical Control (CNC)-Maschinen. Jedes Mal, wenn ein Entwickler Fachwissen erwerben muss, damit ein System funktioniert, gibt es zwei Möglichkeiten: Suchen Sie nach neuen Ressourcen oder arbeiten Sie mit Experten zusammen. Wenn Sie ein System erstellen, um TensorFlow für industrielle Anwendungsfälle zu nutzen, ist eine Partnerschaft wahrscheinlich der zweckmäßigere Weg, insbesondere wenn Sie die Möglichkeit haben, mit Unternehmen zusammenzuarbeiten, die Maschinen und eingebettete KI leben und atmen. Bei ADLINK ist es sogar in unserem Namen – Autonomous Devices LINKed. Wir stellen Ihnen die Tools zur Verfügung, die Sie zum schnelleren Erstellen, Testen und Bereitstellen von TensorFlow-Lösungen benötigen.
Wir haben Edge-Lösungen, die häufig auftretende Probleme beheben, auf die Entwickler stoßen, wenn ein TensorFlow-Modell für Hersteller funktioniert. Unsere Lösungen ermöglichen Ihnen:
- Nehmen Sie Bilder von Industriekameras auf, erfassen und streamen Sie sie, um Ihr Modell zu trainieren und zu testen.
- Schließen Sie eine beliebige Kamera eines beliebigen Herstellers an, um Bilddaten aus mehreren Quellen zu verwenden.
- Stellen Sie Ihre Modelle am Edge in der Nähe von Datenquellen mit One-Touch-Bereitstellung bereit.
- Verbinden Sie – sofort einsatzbereit – eines von über 150 OT-Steuerungssystemen.
- Erstellen Sie Ihre eigene App mit JavaScript oder C++.
Sie haben außerdem den Vorteil, mit einem Partner zusammenzuarbeiten, der mit der Implementierung von TensorFlow-Modellen für die Fertigung vertraut ist. Wir haben beispielsweise gesehen, dass Partner erfolgreich Systeme beschleunigt haben, indem sie ein TensorFlow-Modell erstellten, es jedoch auf Intels OpenVINO ausführen.
Der ADLINK Data River™ verbindet und integriert eine Machine-Learning-Plattform, ein neuronales Netz, ein Machine-Vision-System, das Cloud-Neural, Industriekameras und Fertigungsausrüstung – und streamt Daten überall dort, wo sie benötigt werden, in Echtzeit.
Unser schlüsselfertiges ADLINK Edge™ Die KI-Lösung für maschinelles Sehen umfasst die gesamte Hardware und Software, die erforderlich ist, um Kameras anzuschließen, TensorFlow oder andere ML-Modelle zu unterstützen und Inferenzdaten in Echtzeit zu streamen. Diese Edge-Lösung ermöglicht schnellere Verarbeitungszeiten, geringere Latenzzeiten und Kontrolle am Edge bei gleichzeitig geringerem Energiebedarf, einschließlich vorkonfigurierter Lösungen – es ist also keine Codierung erforderlich.
Hardware, die Sie zum Ausführen Ihres TensorFlow-Modells benötigen
Industrielle Edge-Hardware ist eine Schlüsselkomponente für den Betrieb von TensorFlow in der Fabrik. Natürlich wir haben dich abgedeckt mit einsatzbereiten Vision-Systemen, Framegrabbern und Smart-Kameras für Edge-Computing unter rauen Bedingungen. Sie sollten sicherstellen, dass Sie zwischen Intel, NVIDIA, Camera Link, GiGE oder Unterstützung analoger Standards flexibel sind.
Das in TensorFlow erstellte Bildverarbeitungsmodell hat das Potenzial, Herstellern Vorteile wie Automatisierung, Effizienz, Transparenz und mehr Wettbewerbsfähigkeit zu bieten. Um einen maximalen Nutzen zu erzielen, muss das Modell jedoch Teil eines Gesamtsystems sein, das für den Betrieb und seine Umgebung ausgelegt ist und mit Fertigungsanlagen, einschließlich Altmaschinen, arbeiten kann.