Deep-Learning-Intelligenz an der Edge

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Um Schlussfolgerungen, also Inferenzen aus Deep Learning-Inferenz (DL) im Feld (Edge) ziehen zu können, ist eine flexibel skalierbare Hardwarelösung nötig, die stromsparend ist und eine geringe Latenzzeit aufweist. Solche Systeme liefert beispielsweise IPC. Eine aktuelle Erweiterungskarte zeigt, was so ein Edge-Device mitbringen muss.

mustang-v100-cmyk

Um Schlussfolgerungen, also Inferenzen aus Deep Learning-Inferenz (DL) im Feld (Edge) ziehen zu können, ist eine flexibel skalierbare Hardwarelösung nötig, die stromsparend ist und eine geringe Latenzzeit aufweist. Solche Systeme liefert beispielsweise IPC. Eine aktuelle Erweiterungskarte zeigt, was so ein Edge-Device mitbringen muss.

An der Edge werden zunächst einmal vorwiegend kompakte, passiv gekühlte Systeme eingesetzt, die schnelle Entscheidungen ohne Upload in die Cloud treffen können und entsprechend der Umgebung robust ausgelegt sind. Was so ein Gerät noch alles mitbringen sollte, zeigt die KI-Beschleunigerkarte Mustang-V100 von ICP Deutschland. Sei unterstützt Entwickler bei der erfolgreichen Integration von KI-Trainingsmodellen an der Edge. Auf der PCIe basierten Erweiterungskarte sind acht Intel Movidius Myriad X MA2485 Vision Processing Units (VPUs) integriert. Aufgrund ihres geringen Stromverbrauchs von 2,5 W pro VPU eignet sie sich für besonders anspruchsvolle Low-Power-KI-Anwendungen an der Edge.

Dabei lässt sich jeder einzelnen VPU eine andere DL-Topologie zuweisen. Grund hierfür ist die Multi-Channel Fähigkeit der VPUs, die die simultane Ausführung von Berechnungen ermöglicht. So lassen sich unterschiedliche Anwendungen wie Objekterkennung oder Bild- und Videoklassifikation gleichzeitig ausführen. Die Kompatibilität mit dem OpenVINO Toolkit von Intel sorgt für eine Performance Optimierung des eingespielten Trainingsmodels und nimmt eine passende Skalierung auf das Zielsystem an der Edge vor. Softwareentwickler profitieren so in zweifacher Hinsicht – durch eine schnelle sowie optimierte Integration ohne langwieriges Trail und Error.

Die Mustang-V100 ist mit einer Vielzahl von gängigen Betriebssystemen wie Ubuntu 16.04, CentosOS 7.4 und Windows 10 IoT kompatibel und unterstützt zahlreiche Architekturen und Topologien neuronaler Netzwerke.

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

avatar
  Abonnieren  
Benachrichtige mich bei

Andere Leser haben sich auch für die folgenden Artikel interessiert

Das Figure-4-Produktionssystem von 3D Systems wurde für ein von der US Air Force (USAF) gefördertes Forschungsprojekt ausgewählt. Ziel ist es, Hochgeschwindigkeits-3D-Drucktechnologien in die Lieferkette für die Flugzeugwartung zu integrieren. Was hinter dem Projekt steckt.

Der Erlanger Automatisierungsspezialist Heitec vernetzt mit HeiTPM Werkzeugmaschinen, bindet sie an ERP-Systeme an und integriert sie so in die Managementebene. Auf diese Weise erkennen Produktionsleiter Abweichungen zwischen geplantem Soll- und realem Produktionsdurchlauf. Die so entstehende Transparenz bildet die Basis für eine optimal und effizient gesteuerte Produktion.

Werbung

Top Jobs

Es wurden keine Jobangebote gefunden
Werbung

Redaktionsbrief

Tragen Sie sich zu unserem Redaktions-Newsletter ein, um auf dem Laufenden zu bleiben.

Werbung

Aktuelle Ausgabe

Topthema: Auf dem Weg zur smarten industriellen Produktion

Einsatz der additiven Fertigung im produzierenden Gewerbe

Mehr erfahren

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.