Vision industrielle : connecter les machines industrielles de l'usine à TensorFlow

Les experts TensorFlow créent des modèles étonnants. À l'aide de la plate-forme d'apprentissage automatique open source développée par l'équipe Google Brain, TensorFlow permet aux entreprises de proposer des solutions textuelles, de recherche vocale et de reconnaissance faciale. TensorFlow peut également servir de base à la détection d'objets en temps réel et à d'autres cas d'utilisation de la vision industrielle dans la fabrication. Les modèles TensorFlow que vous créez peuvent, par exemple, alimenter des systèmes de guidage robotique, faciliter des solutions d'inspection et de vérification d'assemblage efficaces, activer des systèmes intelligents de contrôle des stocks et des actifs et optimiser les performances des machines. De plus, ils ont le potentiel d'aider les fabricants à améliorer la qualité des produits, à automatiser les tâches répétitives pour fonctionner plus efficacement et à éviter les temps d'arrêt.

Cependant, il y a un problème à tirer le meilleur parti des modèles TensorFlow élégants que vous créez. Vous devez trouver un moyen de connecter votre modèle TensorFlow aux machines du fabricant afin qu'elles fassent réellement quelque chose.

La vision industrielle avec automatisation est compliquée

Déployer des modèles TensorFlow dans des environnements industriels réels et les amener à déclencher les actions appropriées est un processus complexe en plusieurs étapes. Après avoir développé votre modèle, vous devez :

  • Entraînez-le
  • Déployez-le
  • Activer le streaming vidéo
  • Développer une application qui utilise des données d'inférence pour produire une sortie souhaitée
  • Créer une interface utilisateur appropriée
  • Activer la connectivité API

Certains des obstacles les plus courants dans le processus comprennent :

1. Accès aux données d'entraînement

Une opération de fabrication peut utiliser des solutions informatiques et OT de différents fournisseurs, qui produisent plusieurs flux de données, souvent avec des données formatées de différentes manières. Cependant, pour entraîner et tester un modèle TensorFlow, vous devez accéder à tous les types de données que votre système utilise afin que votre modèle fonctionne efficacement dans les opérations du monde réel. Pour amplifier encore ce défi, une opération peut utiliser des équipements hérités qui produisent des données vitales mais ne fournissent pas un moyen facile de se connecter au réseau. Vous avez besoin d'un moyen de lier tous les flux de données et de permettre aux données de circuler librement pendant la formation et les tests du modèle, ainsi que pendant les opérations en cours.

2. Déployer des modèles TensorFlow à la périphérie

Dans une application réelle, la meilleure stratégie peut consister à déployer votre modèle TensorFlow via TensorFlow Lite dans des appareils embarqués, Internet des objets (IoT) ou d'autres appareils périphériques. Les capacités d'apprentissage automatique à la périphérie peuvent réduire la latence et augmenter la fiabilité, mais vous devez choisir des composants pour votre système capables de résister aux environnements industriels difficiles tout en répondant à toutes les exigences de traitement et d'alimentation nécessaires.

3. Conversion des données d'inférence pour automatiser et contrôler l'équipement

Une fois votre modèle TensorFlow formé avec succès, vous devez également concevoir un moyen efficace d'automatiser les fonctions de l'équipement en fonction des données d'inférence, telles que l'identification d'un défaut et l'envoi d'un message au contrôleur d'un convoyeur pour ralentir ou s'arrêter. Votre modèle doit « parler » aux équipements industriels.

La meilleure façon d'exécuter TensorFlow en usine

Si votre domaine d'expertise est TensorFlow, il est probable que votre expertise ne concerne pas les machines à commande numérique par ordinateur (CNC). Chaque fois qu'un développeur a besoin d'acquérir une expertise pour faire fonctionner un système, deux choix s'offrent à lui : trouver de nouvelles ressources ou s'associer à des experts. Lorsque vous créez un système pour tirer parti de TensorFlow pour des cas d'utilisation industriels, le partenariat est probablement la voie la plus rapide, en particulier lorsque vous avez la possibilité de vous associer à des entreprises qui vivent et respirent des machines et une IA intégrée. Avec ADLINK, c'est même en notre nom – Autonomous Devices LINKed. Nous sommes prêts à vous fournir les outils dont vous avez besoin pour créer, tester et déployer des solutions TensorFlow plus rapidement.

Nous avons des solutions de pointe pour résoudre les problèmes courants rencontrés par les développeurs lorsqu'ils font fonctionner un modèle TensorFlow pour les fabricants. Nos solutions vous permettent de :

  • Enregistrez, capturez et diffusez des images à partir de caméras industrielles pour entraîner et tester votre modèle.
  • Connectez n'importe quelle caméra de n'importe quel fournisseur pour utiliser des données d'image provenant de plusieurs sources.
  • Déployez vos modèles à la périphérie, à proximité des sources de données, avec un déploiement en une seule touche.
  • Connectez - prêt à l'emploi - n'importe lequel des 150+ systèmes de contrôle OT.
  • Créez votre propre application avec JavaScript ou C++.

Vous avez également l'avantage de travailler avec un partenaire familiarisé avec la mise en œuvre des modèles TensorFlow pour la fabrication. Par exemple, nous avons vu des partenaires réussir à accélérer des systèmes en créant un modèle TensorFlow mais en l'exécutant sur OpenVINO d'Intel.

L'ADLINK Data River™ connecte et intègre une plate-forme d'apprentissage automatique, un réseau neuronal, un système de vision industrielle, le neurone cloud, des caméras industrielles et des équipements de fabrication - diffuser des données partout où cela est nécessaire en temps réel. 

Notre clé en main ADLINK Edge ™ La solution d'IA de vision industrielle comprend tout le matériel et les logiciels nécessaires pour connecter des caméras, assister avec TensorFlow ou d'autres modèles ML et diffuser des données d'inférence en temps réel. Cette solution de périphérie permet des temps de traitement plus rapides, une latence et un contrôle inférieurs à la périphérie tout en réduisant les besoins en énergie, y compris les solutions préconfigurées – aucun codage n'est donc nécessaire.

Matériel dont vous avez besoin pour exécuter votre modèle TensorFlow

Le matériel de pointe industrielle est un élément clé de l'exécution de TensorFlow en usine. Bien sûr nous vous avons couvert avec des systèmes de vision prêts à déployer, des cartes d'acquisition d'images et des caméras intelligentes pour l'informatique de pointe dans des conditions difficiles. Vous voudrez vous assurer d'avoir une flexibilité entre la prise en charge des normes Intel, NVIDIA, Camera Link, GiGE ou analogique.

Le modèle de vision industrielle que vous créez dans TensorFlow a le potentiel d'offrir aux fabricants des avantages tels que l'automatisation, l'efficacité, la visibilité et une plus grande compétitivité. Pour offrir une valeur maximale, cependant, le modèle doit faire partie d'un système global conçu pour l'opération et son environnement et capable de fonctionner avec les équipements de fabrication, y compris les machines existantes.

Daniel Collins
Daniel Collins

Directeur principal, Edge Solutions, ADLINK Technology

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *