Les systèmes informatiques évoluent rapidement dans les entreprises et les entreprises à tous les niveaux, et une tendance croissante est de déplacer la puissance de calcul vers la périphérie. Gartner prédit d'ici 2025, l'informatique de pointe sera traitée 75% de données générés par tous les cas d'utilisation, y compris ceux des usines, des soins de santé et des transports. Vous pouvez corréler l'adoption de l'informatique de périphérie avec montée en puissance de l'intelligence artificielle (IA), qui rend les usines plus intelligentes, améliore les résultats pour les patients, augmente la sécurité des véhicules autonomes - ainsi que des volumes de données croissants de manière exponentielle plus que jamais. Données provenant d'équipements de fabrication, de capteurs, de systèmes de vision industrielle et systèmes de gestion d'entrepôt dans une seule usine intelligente pourrait facilement totaliser 1 pétaoctet par jour.
Lorsque les entreprises ont déployé pour la première fois des systèmes embarqués, leurs architectes système ne pouvaient pas imaginer les volumes de données que l'IA, l'Internet des objets (IoT) et d'autres technologies avancées généreraient. Maintenant que le paysage a changé, les systèmes embarqués d'il y a dix ans doivent s'adapter pour prendre en charge l'informatique de pointe d'aujourd'hui.
Aujourd'hui, de nombreuses charges de travail IA sont traitées dans le cloud. Cependant, comme des données à bande passante plus élevée imposent une demande croissante à ces systèmes, le traitement des données à la périphérie est logique en termes de latence, de fiabilité, de mobilité, de sécurité, d'efficacité énergétique et de coûts de transmission de données.
Pour répondre aux nouvelles exigences d'aujourd'hui, le matériel doit évoluer des systèmes de contrôle et basés sur des règles vers des environnements centrés sur les données pour s'adapter à l'IA de pointe.
Guide des types de processeurs pour les charges de travail IA à la périphérie
La configuration matérielle requise pour le traitement des charges de travail IA varie en fonction du cas d'utilisation. L'IA peut exploiter un large éventail d'entrées, y compris des vidéos, des images, de l'audio, des capteurs et des données API. Le défi auquel sont confrontés les architectes système est de choisir les meilleurs cœurs de calcul pour leurs applications d'IA.
Ce guide vous aidera à comprendre les différents types de cœurs de traitement qui peuvent être utilisés dans les systèmes de périphérie, et leurs avantages.
- CPU
L'unité centrale de traitement (CPU) est une unité de traitement polyvalente avec généralement 4 à 16 cœurs. Les processeurs exécutent des tâches complexes et facilitent la gestion du système.
Ils fonctionnent bien avec des entrées de données mixtes, telles que les systèmes qui utilisent à la fois l'audio et le texte, et les processus d'extraction, de transformation et de chargement (ETL).
- GPU
Les unités de traitement graphique (GPU) sont des cœurs hautement parallèles (100 ou 1000) pour un rendu graphique à haute vitesse. Ils offrent un traitement haute performance et ont généralement une empreinte plus grande et une consommation d'énergie plus élevée que les processeurs.
En raison du nombre élevé de petits cœurs, les GPU sont bien adaptés aux charges de travail d'IA, facilitant à la fois la formation sur les réseaux neuronaux et l'inférence de l'IA.
- FPGA
Les FPGA (Field-Programmable Gate Array), qui sont des portes logiques configurables, consomment moins d'énergie que les CPU et les GPU. Ils permettent une reprogrammation sur le terrain pour les ingénieurs ayant une expertise en programmation.
Ils peuvent être le meilleur choix lorsqu'un degré élevé de flexibilité est requis.
- ASIC
Les circuits intégrés spécifiques à une application (ASIC) sont une logique personnalisée conçue à l'aide des bibliothèques de circuits d'un fabricant et offrent les avantages d'une faible consommation d'énergie, d'une vitesse et d'un faible encombrement. Cependant, leur conception est longue et plus coûteuse que les autres options, de sorte que les ASIC sont recommandés pour les produits qui fonctionneront en très gros volumes.
Les types d'ASIC comprennent:
- Unités de traitement de la vision (VPU), des processeurs d'image et de vision et des coprocesseurs
- Unités de traitement Tensor (TPU), comme le premier TPU développé par Google pour son framework d'apprentissage automatique, TensorFlow
- Unités de calcul neuronal (NCU), y compris celles d'ARM
Chaque type de noyau est adapté à différents types de calculs - et en les utilisant ensemble dans applications informatiques hétérogènes fournit toutes les fonctionnalités requises par les cas d'utilisation complexes. Utilisés ensemble, ils peuvent également équilibrer les charges de travail, améliorer les différentes performances d'inférence de l'IA et créer la configuration la plus rentable et la plus efficace.

Étapes de sélection du matériel intégré pour Edge AI
La sélection d'un système matériel de périphérie intégré pour le traitement de l'IA en périphérie nécessite généralement l'évaluation de trois facteurs principaux:
Performance
Le système matériel de base doit être en mesure de fournir la vitesse exigée par les applications d'IA de périphérie complexes et gourmandes en données, tout en fonctionnant de manière cohérente et fiable, même dans des environnements difficiles.
Échanger
SWaP est un acronyme pour la taille, le poids et la puissance. En plus de fournir les fonctionnalités requises par l'application, le matériel de périphérie doit également répondre aux spécifications de taille et de poids pour se conformer aux contraintes physiques de l'application et avoir le plus de sens du point de vue de la consommation d'énergie.
Coût
Le coût du matériel de périphérie peut varier selon les types de cœurs et de fabricants. Il est nécessaire de déterminer qui offre les fonctionnalités et les spécifications dont votre projet a besoin au meilleur prix.

Matériel Edge au travail
Les exemples suivants ne sont que quelques-uns des nombreux cas d'utilisation dans lesquels l'innovation matérielle de pointe permet à l'IA de générer de la valeur aujourd'hui.
Plateformes d'accélération du Deep Learning
Les plates-formes d'accélération d'apprentissage en profondeur (DLAP) activent des fonctionnalités, notamment l'acquisition de données, le prétraitement d'image, l'analyse d'image et l'accélération de l'IA. Ils permettent également aux machines d'améliorer leurs propres performances et de prendre des décisions. En remplaçant les périphériques de périphérie hérités qui envoient des données au cloud pour traitement par des DLAP, les opérations peuvent bénéficier de réponses plus rapides ainsi que d'une sécurité et d'un contrôle accrus.
Les DLAP peuvent tirer parti d'une conception hétérogène, par exemple, en utilisant des processeurs pour gérer l'acquisition de données et le prétraitement des images et des GPU pour accélérer le traitement des tâches parallèles tout en gardant le système périphérique petit et économe en énergie.
Série DLAP d'ADLINK par exemple, est conçu pour des performances dans des environnements industriels difficiles ou embarqués, fonctionnant à des températures extrêmes, une humidité élevée et dans des cas d'utilisation où les chocs et les vibrations sont courants; nous appelons cela optimisé par SWaP pour l'IA de bord. Les unités compactes d'ADLINK contiennent un GPU embarqué NVIDIA® Quadro® ou un supercalculateur NVIDIA® Jetson ™ sur un module et peuvent être utilisées pour des applications d'inférence basée sur l'IA, de vision industrielle et de contrôle de machine autonome.
Exemples

Autocontrôle AI: Les déjeuners tranquilles appartiennent au passé, les gens recherchent moyens rapides d'acheter des repas. L'adoption du libre-service se développe chez les consommateurs et l'IA peut moderniser l'expérience client. À la caisse d'un restaurant ou d'un magasin, la vision industrielle peut identifier les articles en un seul scan et afficher le total dû - en moins de 1,5 seconde avec ADLINK DLAP-211-JT2. Les clients peuvent effectuer leurs achats rapidement et facilement.
Bras C mobile à rayons X: L'équipement médical doit être fiable, durable et conçu pour des performances élevées. Les équipements mobiles doivent également intégrer toute la puissance de calcul nécessaire dans une conception compacte à faible consommation d'énergie. La combinaison du processeur et du module GPU MXM intégré, le plus petit système industriel compatible GPU au monde, répond à ces spécifications.
AI sur les modules
Les GPU Mobile PCI Express Module (MXM) vous permettent d'exécuter l'IA dans des cartes graphiques de la taille d'une paume de main. Ils offrent des avantages SWaP majeurs, y compris des tailles seulement une fraction des cartes PEG pleine longueur. Ils offrent une haute performance par watt et sont conçus pour des conditions extrêmes, telles qu'une ventilation limitée ou inexistante, de petits espaces, des températures élevées ou basses et des environnements poussiéreux ou même corrosifs.
Exemples
Reconnaissance faciale AI: Le contrôle d'accès est vital pour empêcher l'entrée non autorisée dans les usines de fabrication, les installations de recherche, les centres de données et autres zones hautement contrôlées. Une porte de reconnaissance faciale AI élimine le besoin de cartes d'identité (qui peuvent être contrefaites) et remplace ces systèmes hérités par une technologie qui identifie les utilisateurs autorisés, même s'ils portent des lunettes ou une casquette, en une fraction de seconde. Il peut même faire la distinction entre un vrai visage humain et une photo.
Sécurité aéroportuaire: Les systèmes de surveillance panoramique des aéroports offrent une vue à 360 degrés des pistes, du trafic aérien et terrestre et un degré plus élevé de connaissance de la situation que les systèmes de surveillance existants. Ces technologies d'IA sont prises en charge par un périphérique de bord robuste et sans ventilateur conçu pour une utilisation en extérieur, intégré à un GPU haute performance qui prend en charge une surveillance améliorée de jour comme de nuit.
Robotique Edge
L'innovation matérielle fait également robotique à la périphérie possible. As tu entendu Eclipse Cyclone DDS a été sélectionné comme middleware ROS 2 par défaut avec une prochaine version de mai 2021? C'est passionnant car il s'agit de la même technologie de service de distribution de données (DDS) au sein de notre Contrôleurs robotiques embarqués ROScube, qui aident les robots à communiquer avec eux-mêmes et avec le monde qui les entoure.
Exemple:

Robots mobiles autonomes dans la fabrication: Les AMR alimentés par l'IA de pointe peuvent négocier leurs environnements et comprendre le contexte à l'aide des technologies de vision industrielle, 5G et DDS. Groupe d'amis équitables, l'un des plus grands fabricants de Taïwan utilise l'infrastructure 5G sur DDS pour permettre la maintenance à distance avec réalité augmentée, la vision industrielle pour l'inspection automatisée et les essaims AMR pour la manutention de matériaux dans leur usine aujourd'hui.
IA Vision industrielle
Les systèmes de vision industrielle basés sur l'IA exploitent des caméras industrielles intégrées et des systèmes informatiques de pointe avec des GPU, des VPU et des processeurs haute performance intégrés pour effectuer des tâches. Parce que toute la puissance de calcul est à la périphérie, les problèmes de latence et de bande passante sont éliminés. De plus, avec le matériel de bord droit, les caméras intelligentes peuvent maintenir un faible encombrement, poids, puissance, performances et coûts pour la vision artificielle par IA.
Exemple:

Exécution de l'entrepôt: Evans Distribution Systems, une société de logistique et de chaîne d'approvisionnement tierce, utilise un système de vision artificielle d'IA pour exécuter rapidement et avec précision les commandes de cookies Girl Scout pour Girl Scouts of America, l'une des collectes de fonds les plus populaires pour la célèbre organisation à but non lucratif. . Selon un entretien récent, le système est plus précis de 99.8%, améliorant la productivité et les expéditions client précises.
Explorez vous-même le matériel embarqué innovant pour Edge AI
ADLINK présentera une gamme de matériel pour l'IA de bord à monde embarqué 2021 NUMÉRIQUE. Cette conférence est votre chance de vous connecter avec des ingénieurs ADLINK, des partenaires et des experts en systèmes de périphérie prêts à vous aider à choisir le matériel embarqué optimal pour votre cas d'utilisation. Inscrivez-vous gratuitement à #ew21 ici en utilisant le code promo: ew21456845.