Deep-Learning-Intelligenz an der Edge

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Um Schlussfolgerungen, also Inferenzen aus Deep Learning-Inferenz (DL) im Feld (Edge) ziehen zu können, ist eine flexibel skalierbare Hardwarelösung nötig, die stromsparend ist und eine geringe Latenzzeit aufweist. Solche Systeme liefert beispielsweise IPC. Eine aktuelle Erweiterungskarte zeigt, was so ein Edge-Device mitbringen muss.

mustang-v100-cmyk

Um Schlussfolgerungen, also Inferenzen aus Deep Learning-Inferenz (DL) im Feld (Edge) ziehen zu können, ist eine flexibel skalierbare Hardwarelösung nötig, die stromsparend ist und eine geringe Latenzzeit aufweist. Solche Systeme liefert beispielsweise IPC. Eine aktuelle Erweiterungskarte zeigt, was so ein Edge-Device mitbringen muss.

An der Edge werden zunächst einmal vorwiegend kompakte, passiv gekühlte Systeme eingesetzt, die schnelle Entscheidungen ohne Upload in die Cloud treffen können und entsprechend der Umgebung robust ausgelegt sind. Was so ein Gerät noch alles mitbringen sollte, zeigt die KI-Beschleunigerkarte Mustang-V100 von ICP Deutschland. Sei unterstützt Entwickler bei der erfolgreichen Integration von KI-Trainingsmodellen an der Edge. Auf der PCIe basierten Erweiterungskarte sind acht Intel Movidius Myriad X MA2485 Vision Processing Units (VPUs) integriert. Aufgrund ihres geringen Stromverbrauchs von 2,5 W pro VPU eignet sie sich für besonders anspruchsvolle Low-Power-KI-Anwendungen an der Edge.

Dabei lässt sich jeder einzelnen VPU eine andere DL-Topologie zuweisen. Grund hierfür ist die Multi-Channel Fähigkeit der VPUs, die die simultane Ausführung von Berechnungen ermöglicht. So lassen sich unterschiedliche Anwendungen wie Objekterkennung oder Bild- und Videoklassifikation gleichzeitig ausführen. Die Kompatibilität mit dem OpenVINO Toolkit von Intel sorgt für eine Performance Optimierung des eingespielten Trainingsmodels und nimmt eine passende Skalierung auf das Zielsystem an der Edge vor. Softwareentwickler profitieren so in zweifacher Hinsicht – durch eine schnelle sowie optimierte Integration ohne langwieriges Trail und Error.

Die Mustang-V100 ist mit einer Vielzahl von gängigen Betriebssystemen wie Ubuntu 16.04, CentosOS 7.4 und Windows 10 IoT kompatibel und unterstützt zahlreiche Architekturen und Topologien neuronaler Netzwerke.

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken
Werbung
Werbung

Redaktionsbrief

Tragen Sie sich zu unserem Redaktions-Newsletter ein, um auf dem Laufenden zu bleiben.

Werbung

Oft gelesen

Noch keine Daten vorhanden.

Werbung

Aktuelle Ausgabe

Topthema: Softwarepakete für CNC-Shopfloor-Management

Neuer Weg zum optimalen NC-Programm

Mehr erfahren

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.