Eingebettete Hardware für die Verarbeitung von KI am Rande: GPU, VPU, FPGA und ASIC erklärt

IT-Systeme entwickeln sich in Unternehmen und Unternehmen auf breiter Front rasant weiter, und ein wachsender Trend führt dazu, dass die Rechenleistung an den Rand gedrängt wird. Gartner prognostiziert, dass Edge Computing bis 2025 verarbeitet wird 75% von Daten generiert durch alle Anwendungsfälle, einschließlich der in Fabriken, im Gesundheitswesen und im Transportwesen. Sie können die Akzeptanz von Edge-Computing mit dem korrelieren Anstieg der künstlichen Intelligenz (AI), das Fabriken intelligenter macht, die Patientenergebnisse verbessert, die Sicherheit autonomer Fahrzeuge erhöht - und das Datenvolumen exponentiell größer macht als je zuvor. Daten von Fertigungsanlagen, Sensoren, Bildverarbeitungssystemen und Lagerverwaltungssysteme in einer einzigen intelligenten Fabrik könnte leicht 1 Petabyte pro Tag betragen. 

Als Unternehmen zum ersten Mal eingebettete Systeme einsetzten, konnten sich ihre Systemarchitekten nicht vorstellen, welche Datenmengen KI, Internet der Dinge (IoT) und andere fortschrittliche Technologien erzeugen würden. Jetzt, da sich die Landschaft verändert hat, müssen sich die eingebetteten Systeme von vor zehn Jahren anpassen, um das heutige Edge-Computing zu unterstützen. 

Viele KI-Workloads werden heute in der Cloud verarbeitet. Da jedoch Daten mit höherer Bandbreite immer höhere Anforderungen an diese Systeme stellen, ist die Verarbeitung der Daten am Rande hinsichtlich Latenz, Zuverlässigkeit, Mobilität, Sicherheit, Energieeffizienz und Datenübertragungskosten sinnvoll.  

Um den neuen Anforderungen von heute gerecht zu werden, muss sich die Hardware von Steuerungs- und regelbasierten Systemen zu datenzentrierten Umgebungen entwickeln, um der Edge-KI gerecht zu werden. 

Eine Anleitung zu Prozessortypen für AI-Workloads am Rande 

Die Hardwareanforderungen für die Verarbeitung von AI-Workloads variieren je nach Anwendungsfall. AI kann eine Vielzahl von Eingaben nutzen, darunter Videos, Bilder, Audio, Sensoren und SPS-Daten. Die Herausforderung für Systemarchitekten besteht darin, die besten Rechenkerne für ihre KI-Anwendungen auszuwählen.  

Dieses Handbuch hilft Ihnen dabei, die verschiedenen Arten von Prozessorkernen, die in Kantensystemen verwendet werden können, und ihre Stärken zu verstehen.  

  1. Zentralprozessor 

Die Zentraleinheit (CPU) ist eine Universalverarbeitungseinheit mit normalerweise 4 bis 16 Kernen. CPUs führen komplexe Aufgaben aus und erleichtern die Systemverwaltung. 

Sie funktionieren gut mit gemischten Dateneingaben, z. B. Systemen, die sowohl Audio als auch Text verwenden und ETL-Prozesse (Extrahieren, Transformieren und Laden) verwenden. 

  1. GPU 

Grafikprozessoren (GPUs) sind hochparallele Kerne (100er oder 1.000er) für das Hochgeschwindigkeits-Grafik-Rendering. Sie bieten eine leistungsstarke Verarbeitung und haben in der Regel einen größeren Platzbedarf und einen höheren Stromverbrauch als CPUs. 

Aufgrund der hohen Anzahl kleiner Kerne eignen sich GPUs gut für KI-Workloads und erleichtern sowohl das Training für neuronale Netze als auch die KI-Inferenz. 

  1. FPGA 

Field-Programmable Gate Array (FPGA), konfigurierbare Logikgatter, verbrauchen weniger Strom als CPUs und GPUs. Sie ermöglichen Ingenieuren mit Programmierkenntnissen eine Neuprogrammierung vor Ort. 

Sie können die beste Wahl sein, wenn ein hohes Maß an Flexibilität erforderlich ist. 

  1. ASIC 

Anwendungsspezifische integrierte Schaltkreise (ASICs) sind benutzerdefinierte Logikfunktionen, die unter Verwendung der Schaltkreisbibliotheken eines Herstellers entwickelt wurden und die Vorteile eines geringen Stromverbrauchs, einer geringen Geschwindigkeit und eines geringen Platzbedarfs bieten. Sie sind jedoch zeitaufwändig im Design und teurer als andere Optionen. Daher werden ASICs für Produkte empfohlen, die in sehr hohen Stückzahlen ausgeführt werden.   

Zu den ASIC-Typen gehören: 

  • Vision Processing Units (VPUs), Bild- und Vision-Prozessoren sowie Co-Prozessoren 
  • Tensor Processing Units (TPUs), wie das erste TPU, das Google für sein Framework für maschinelles Lernen, TensorFlow, entwickelt hat 
  • Neuronale Recheneinheiten (NCUs), einschließlich solcher von ARM 

Jeder Kerntyp eignet sich für verschiedene Arten von Berechnungen - und verwendet sie zusammen in heterogene Computeranwendungen bietet alle Funktionen, die komplexe Anwendungsfälle erfordern. Zusammen können sie auch die Arbeitslast ausgleichen, die Leistung unterschiedlicher KI-Inferenzen steigern und die kostengünstigste und effizienteste Konfiguration erstellen. 

Abbildung 1. Optionen für heterogene Edge-Computing-Architekturen für AI-Anwendungen

Schritte zur Auswahl eingebetteter Hardware für Edge AI 

Die Auswahl eines eingebetteten Edge-Hardwaresystems für die Verarbeitung von AI am Edge erfordert normalerweise die Bewertung von drei Hauptfaktoren: 

Performance  

Das Kernhardwaresystem muss in der Lage sein, die Geschwindigkeit zu liefern, die komplexe, datenintensive Edge-AI-Anwendungen erfordern, und gleichzeitig konsistent und zuverlässig zu arbeiten, selbst in rauen Umgebungen. 

Tauschen  

SWaP ist eine Abkürzung für Größe, Gewicht und Leistung. Zusätzlich zur Bereitstellung der für die Anwendung erforderlichen Funktionen muss die Edge-Hardware auch die Spezifikationen für Größe und Gewicht erfüllen, um den physischen Einschränkungen der Anwendung zu entsprechen und unter dem Gesichtspunkt des Stromverbrauchs am sinnvollsten zu sein. 

Kosten 

Die Kosten für Edge-Hardware können variieren - je nach Art der Kerne und Hersteller. Es ist notwendig zu bestimmen, welche die Funktionalität und Spezifikationen bietet, die Ihr Projekt zum besten Preis benötigt. 

Abbildung 2. Vergleich der Kerntypen für Edge-AI-Hardware

Edge-Hardware bei der Arbeit  

Die folgenden Beispiele sind nur einige der vielen Anwendungsfälle, in denen Edge-Hardware-Innovationen es AI ermöglichen, heute einen Mehrwert zu liefern. 

Deep Learning-Beschleunigungsplattformen 

Deep Learning Acceleration Platforms (DLAPs) ermöglichen Funktionen wie Datenerfassung, Bildvorverarbeitung, Bildanalyse und KI-Beschleunigung. Sie geben Maschinen auch die Möglichkeit, ihre eigene Leistung zu verbessern und Entscheidungen zu treffen. Durch das Ersetzen älterer Edge-Geräte, die Daten zur Verarbeitung mit DLAPs an die Cloud senden, können Vorgänge schnellere Antworten sowie mehr Sicherheit und Kontrolle erzielen. 

DLAPs können heterogenes Design nutzen, indem sie beispielsweise CPUs zur Verwaltung der Datenerfassung und Bildvorverarbeitung sowie GPUs verwenden, um die parallele Aufgabenverarbeitung zu beschleunigen und gleichzeitig das Edge-System klein und energieeffizient zu halten. 

ADLINKs DLAP-Serie Zum Beispiel ist es für die Leistung in rauen Industrie- oder eingebetteten Umgebungen ausgelegt, bei extremen Temperaturen, hoher Luftfeuchtigkeit und in Anwendungsfällen, in denen Stöße und Vibrationen häufig sind. Wir nennen dies SWaP-optimiert für Edge AI. Die kompakten Einheiten von ADLINK enthalten eine NVIDIA® Quadro® Embedded GPU oder einen NVIDIA® Jetson ™ Supercomputer auf einem Modul und können für AI-basierte Inferenz-, Bildverarbeitungs- und autonome Maschinensteuerungsanwendungen verwendet werden. 

Beispiele  

AI Self-Checkout: Mit gemütlichen Mittagessen gehören die Menschen der Vergangenheit an schnelle Möglichkeiten, um Mahlzeiten zu kaufen. Die Akzeptanz von Self-Services bei Verbrauchern nimmt zu, und KI kann das Kundenerlebnis modernisieren. An der Kasse eines Restaurants oder Geschäfts kann Machine Vision die Artikel in einem einzigen Scan identifizieren und die fällige Summe anzeigen - mit ADLINK DLAP-211-JT2 in weniger als 1,5 Sekunden. Kunden können ihre Einkäufe schnell und bequem abschließen.

Mobiler Röntgen-C-Arm: Medizinische Geräte müssen zuverlässig, langlebig und auf hohe Leistung ausgelegt sein. Mobile Geräte müssen außerdem die gesamte erforderliche Rechenleistung in einem kompakten Design mit geringem Stromverbrauch zusammenfassen. Die Kombination aus CPU und eingebettetem MXM-GPU-Modul, dem weltweit kleinsten industriellen GPU-fähigen System, erfüllt diese Spezifikationen. 

KI auf Modulen 

Mit MXM-GPUs (Mobile PCI Express Module) können Sie AI auf handflächengroßen Grafikkarten ausführen. Sie bieten wichtige SWaP-Vorteile, einschließlich der Größe nur eines Bruchteils der PEG-Karten in voller Länge. Sie bieten eine hohe Leistung pro Watt und sind für extreme Bedingungen wie begrenzte oder keine Belüftung, kleine Räume, hohe oder niedrige Temperaturen und staubige oder sogar korrosive Umgebungen ausgelegt. 

Beispiele 

AI Gesichtserkennung: Die Zugangskontrolle ist wichtig, um das unbefugte Betreten von Produktionsstätten, Forschungseinrichtungen, Rechenzentren und anderen stark kontrollierten Bereichen zu verhindern. Ein AI-Gesichtserkennungstor macht ID-Karten (die gefälscht werden können) überflüssig und ersetzt diese Legacy-Systeme durch eine Technologie, mit der autorisierte Benutzer innerhalb von Sekundenbruchteilen identifiziert werden können, selbst wenn sie eine Brille oder eine Kappe tragen. Es kann sogar zwischen einem echten menschlichen Gesicht und einem Foto unterscheiden. 

Flughafensicherheit: Flughafen-Panoramaüberwachungssysteme bieten eine 360-Grad-Ansicht von Landebahnen, Luft- und Bodenverkehr und ein höheres Maß an Situationsbewusstsein als herkömmliche Überwachungssysteme. Diese KI-Technologien werden von einem robusten, lüfterlosen Edge-Gerät unterstützt, das für den Außenbereich konzipiert ist und in eine Hochleistungs-GPU integriert ist, die Tag und Nacht eine verbesserte Überwachung unterstützt.   

Kantenrobotik 

Hardware-Innovation macht auch Robotik am Rande möglich. Hast du gehört Eclipse Cyclone DDS wurde mit einer kommenden Veröffentlichung im Mai 2021 als Standard-ROS 2-Middleware ausgewählt? Dies ist aufregend, da es sich um dieselbe DDS-Technologie (Data Distribution Service) handelt ROScube eingebettete Robotik-Steuerungen, die Robotern helfen, mit sich selbst und der Welt um sie herum zu kommunizieren.  

Beispiel: 

Autonome mobile Roboter in der Fertigung: Mit Edge AI betriebene AMRs können ihre Umgebungen aushandeln und den Kontext mithilfe von Machine Vision-, 5G- und DDS-Technologien verstehen. Fair Friend GroupEiner der größten Hersteller in Taiwan nutzt heute die 5G-over-DDS-Infrastruktur, um eine Fernwartung mit Augmented Reality, Bildverarbeitung für die automatisierte Inspektion und AMR-Schwärmen für die Materialhandhabung in seinem Werk zu ermöglichen.

AI Bildverarbeitung  

AI-basierte Bildverarbeitungssysteme nutzen integrierte Industriekameras und Edge-Computing-Systeme mit eingebetteten Hochleistungs-GPUs, VPUs und CPUs, um Aufgaben auszuführen. Da die gesamte Rechenleistung am Rande liegt, werden Latenz- und Bandbreitenprobleme beseitigt. Mit der richtigen Hardware können intelligente Kameras auch einen geringen Platzbedarf, Gewicht, Leistung, Leistung und Kostenanforderungen für die Bildverarbeitung von KI aufrechterhalten.  

Beispiel: 

Lagererfüllung: Evans Distribution Systems, ein Logistik- und Lieferkettenunternehmen von Drittanbietern, verwendet ein AI-Bildverarbeitungssystem, um Bestellungen von Girl Scout-Cookies für Girl Scouts of America, eine der beliebtesten Spendenaktionen für bekannte gemeinnützige Organisationen, schnell und genau zu erfüllen . Nach a aktuelles InterviewDas System ist über 99,81 TP1T genau, was die Produktivität und die genauen Kundenlieferungen verbessert.

Entdecken Sie selbst innovative eingebettete Hardware für Edge AI 

ADLINK zeigt eine Reihe von Hardware für Edge AI unter Embedded World 2021 DIGITAL DIGITAL. Diese Konferenz ist Ihre Gelegenheit, mit ADLINK-Ingenieuren, -Partnern und Edge-System-Experten in Kontakt zu treten, die Ihnen bei der Auswahl der optimalen eingebetteten Hardware für Ihren Anwendungsfall behilflich sind. Registrieren Sie sich hier kostenlos für #ew21 mit Promo-Code: ew21456845.

Verfasser: Zane Tsai
Verfasser: Zane Tsai

Direktor des Platform Product Center, Embedded Platforms & Modules, ADLINK Technology