Gespräche über KI an der Edge und die Vorteile, die mit KI-Technologie einhergehen, gibt es eigentlich nicht erst seit heute. Wir haben zwar den Buchstaben „A“ vor IoT angehängt und es wurde zu der Abkürzung, die wir nun als AIoT bezeichnen (was wirklich die gesamte Umgebung bei der Implementierung von Edge-KI-Technologie beschreibt). Allerdings bleiben die technischen Schwierigkeiten bestehen: „Es ist schwieriger als es sich anhört.“ Unsere Mission ist es diese Aussage in „mit ADLINK wird es einfacher“ zu ändern. Reden wir darüber.
Vollständige Podcast-Episode:
Es gibt einen großen Unterschied zwischen KI an der Edge und KI in der Cloud. Die Daten werden an der Edge erzeugt. Daher finden bei der Verwendung von AIoTdie Intelligenz und der Vorgang alle am selben Ort statt. Das ist von großer Bedeutung, weil einige Anwendungen nicht die Zeit aufwenden können, darauf zu warten, dass Daten in der Cloud hin- und hergesendet werden. Es handelt sich um Millisekunden, die den Unterschied zwischen einem Ausfall einer Produktionslinie oder einer Kollision eines autonomen Fahrzeugs ausmachen. Wenn die Daten nirgendwo hinreisen müssen, können schnellere Antworten erzielt werden. Mit 5G ist dies weitaus besser zu betreiben, aber nicht unbedingt schnell genug für Anwendungen wie autonome Fahrzeuge oder medizinische Geräte.
Entwickler von Edge-KI-Plattformen müssen einige schwierige Entscheidungen treffen, wenn es um die Wahl der verfügbaren Prozessoroptionen für die KI-Berechnung an der Edge geht. Sie müssen sich zwischen CPUs, GPUs und VPUs entscheiden. Als ob das nicht bereits genug Aufwand wäre, fügt Google auch noch TPUs (Tensor Processing Units) in die bereits umfangreiche Sammlung von Verarbeitungseinheiten mit ein.

Die verschiedenen Prozessortypen sind alle auf ihre eigene Art und Weise besonders. Zum Beispiel kann ein CPU sequentielle und schwere Arbeitsvorgänge verarbeiten. Am anderen Ende arbeitet ein GPU besser, indem es parallel kleinere Aufgaben erfüllt. Allerdings müssen die Ressourcen aufeinander abgestimmt sein. Daher ist die Kopplung von CPUs mit GPUs ( heterogener Computing-Ansatz ) die ideale Lösung für AIoT-Geräte an der Edge.
Es gibt zwar keine einheitliche Edge-KI-Lösung, aber man sollte sich vier Fragen stellen, um festzustellen, ob eine Edge-KI-Lösung passend für ein bestimmtes Design ist:
- Welcher Algorithmus muss ausgeführt werden?
- Welche Leistung wird benötigt?
- Wie schnell brauchen Sie eine Antwort?
- Wie hoch ist Ihr Designbudget?
Um die passende Prozessorkombination für Ihre KI-Anwendung zu finden, ist sicherlich eine umfangreiche Trial-and-Error-Analyse nötig. Die Wahl des richtigen Edge-Computing-Anbieters, der Ihnen dabei hilft, die richtigen Anforderungen an Größe, Gewicht und Leistung (SWaP) zu erfüllen, um Ihre Edge-KI-Anwendung zu unterstützen, entscheidet über Ihren Projekterfolg. Falls Sie diesen Blog lesen, sind Sie am richtigen Ort! 🙂
Bei ADLINK sind wir in der Lage zu unterscheiden, wie Prozessorkombinationen in Bezug auf eine Reihe von Faktoren, einschließlich tief eingebetteter KI-Algorithmen, zusammenwirken, um Sie durch den Edge-KI-Designprozess zu führen. Die Kombination ist entscheidend für die Sicherheit der Menschen und den Zustand von umsatzbringenden Anwendungen in Schwermaschinen, in der Automatisierung und der Fertigung.
Hören Sie sich die komplette Podcastfolge „Embedded Insiders“ an und geben Sie mir gerne Feedback! NVIDIA #GTC21, die Konferenz ist dieses Jahr virtuell und kostenlos mit vielen On-Demand-Sitzungen zu verwandten Themen – sehen Sie sich dort?