KI-Workloads am Netzwerkrand Edge AI: Das sind die Vorteile

Von Matthias Huber 6 min Lesedauer

Anbieter zum Thema

Leistungsstarke Edge-AI-Server analysieren Daten in Echtzeit, steigern die Effizienz von Fertigungslinien und ermöglichen präzise Inspektionen direkt am Netzwerkrand. Richtig eingesetzt optimiert Edge AI aber nicht nur Produktionsprozesse, sondern auch Supply Chain, Wartung und Sicherheit. 

KI-gestützte Bildverarbeitung am Edge hebt die Qualitätskontrolle in der Produktion auf ein neues Niveau. (Bild:  Gorodenkoff/stock.adobe.com (generiert mit KI)
KI-gestützte Bildverarbeitung am Edge hebt die Qualitätskontrolle in der Produktion auf ein neues Niveau.
(Bild: Gorodenkoff/stock.adobe.com (generiert mit KI)

Alle KI-Modelle müssen trainiert werden. Besonders aufwendig ist dieser Prozess bei sehr großen Modellen, die wiederholt mit riesigen Datensätzen durchlaufen werden müssen, bis sie zuverlässig erwartete Ergebnisse liefern. Das Training komplexer Modelle wie LLMs (Large Language Models) und VLMs (Vision Language Models) erfordert fast immer die enormen Rechen- und Speicherressourcen großer Rechenzentren.

Nach dem Training besteht der Großteil der Arbeit der KI in der sogenannten Inferenz. Dabei werden neue Eingaben im Kontext des bereits Gelernten verarbeitet. Die Inferenz benötigt nicht ganz so viel Rechenleistung wie das Training. Um die Fähigkeiten einer Anwendung zu verbessern oder neue Funktionen hinzuzufügen, sind jedoch oft komplexere KI-Modelle erforderlich. Mit zunehmender Produktkomplexität werden auch einige Inferenz-Workloads sehr rechenintensiv.

Vorteile von Edge AI

Viele Innovationen der letzten Jahre zielten darauf ab, dass Prozessoren Inferenz-Workloads deutlich effizienter abarbeiten, sowohl hinsichtlich Rechenleistung als auch Energieverbrauch. Dadurch ist es heute möglich, immer mehr und immer anspruchsvollere KI-Workloads auf Servern am Netzwerkrand (Edge) auszuführen und sogar auf kleineren Geräten wie smarten Lautsprechern oder Überwachungskameras. „Edge Computing bietet im Vergleich zu großen Rechenzentren deutliche Vorteile bei der Energieeffizienz, da der Datentransport reduziert, die Latenz gesenkt und eine dynamische Ressourcenzuteilung ermöglicht wird“, heißt es denn auch in der Fachzeitschrift Engineering Cyber Physical Human Systems Internet of Things; Engineering Cyber Physical Human Systems. Die Latenz kann erheblich gesenkt werden, da Daten nicht mehr zu einem entfernten Rechenzentrum hin und von dort zurück geschickt werden müssen. Ergebnisse liegen dadurch schneller vor. So berichtete die Healthcare-Geschäftseinheit des amerikanischen General Electric Konzerns von deutlich schnelleren Resultaten, nachdem KI direkt in Röntgensysteme integriert wurde. Edge AI ist in vielerlei Hinsicht effizienter. Sie minimiert die Nutzung von Netzwerkbandbreite, da Daten nicht mehr ständig zwischen Rechenzentrum und Edge übertragen werden müssen. Das kann die Telekommunikationskosten senken, und die Energie für die Datenübertragung wird eingespart. Im Allgemeinen laufen Edge-AI-Anwendungen auf kleineren, spezialisierteren Modellen, sodass ein KI-Prozessor am Edge meist weniger Strom verbraucht als ein Server im Rechenzentrum. Manche Edge-Anwendungen, auch in der Fertigung, müssen nicht dauerhaft laufen. Hier kann Edge AI im Standby- oder Schlafmodus betrieben werden, um den Energieverbrauch weiter zu minimieren. Am Ende müssen Ingenieure immer die applikationsspezifischen Faktoren für jede Anwendung abwägen, aber mit Edge AI lassen sich grundsätzlich erhebliche Effizienzgewinne erzielen.Schließlich bleiben die am Edge erzeugten und genutzten Daten auch dort, was sowohl dem Datenschutz als auch der Datensicherheit dient. Das ist oft ein entscheidendes Kriterium für Unternehmen, die ihr geistiges Eigentum schützen oder gesetzlichen Vorgaben zum Schutz von Kundendaten unterliegen – etwa im medizinischen Bereich.

Edge AI in der Fertigung

Edge AI ist ein leistungsfähiges Instrument, um verschiedenste Anforderungen von Herstellern zu erfüllen und zahlreiche Geschäftsprozesse zu verbessern. Edge AI kann Daten in Echtzeit analysieren, was schnelle Entscheidungen, mehr Agilität, optimierte Workflows und letztlich zusätzliche Effizienzgewinne, Kosteneinsparungen und eine bessere Produktqualität ermöglicht.Durch die Analyse von Echtzeitdaten kann KI den Status von Maschinen sowie Trends erkennen. Hersteller können KI-Systeme so konfigurieren, dass sie automatische Reaktionen in Produktionslinien auslösen, Sicherheitsalarme aktivieren und vieles mehr. 

Wartung von Produktionsanlagen

Diese vorausschauenden Fähigkeiten lassen sich auch für die Wartung von Produktionsanlagen nutzen. Ohne KI müssen Hersteller regelmäßige Wartungsintervalle einhalten. Wird dabei kein Problem gefunden, war der Stillstand unnötig. Tritt zwischen den Checks ein Problem auf, bleibt es ohne KI oft unentdeckt, mit der möglichen Folge von Maschinenausfällen und vielleicht sogar teuren Schäden an den Anlagen. KI ist besonders gut darin, Anlagen kontinuierlich zu überwachen und Anomalien zu erkennen, die auf einen bevorstehenden Ausfall hindeuten. Edge-KI kann Wartungsempfehlungen gezielt und nur bei Bedarf aussprechen. Das minimiert Stillstandzeiten und erhöht die Zuverlässigkeit.

Maschinelles Sehen (Machine Vision) ist heute für zahlreiche Anwendungen in der Fertigung unverzichtbar, von der Qualitätssicherung über die Prozessoptimierung bis zur Reduzierung von Ausschuss. Produktionslinien unterscheiden sich: Manche prüfen nur Stichproben – vielleicht 1 von 20 oder 1 von 5 Teilen. Die Entscheidung, nicht jedes Teil zu prüfen, liegt oft an den Limitierungen der Inspektionssysteme. Mit KI-gestützter Bildverarbeitung am Edge können Hersteller jedoch jedes einzelne Teil prüfen. Selbst wenn bereits eine 100%-Prüfung erfolgt, sind KI-basierte Systeme oft besser darin, Fehler zu erkennen.KI-gestütztes maschinelles Sehen kann Defekte schnell identifizieren. Die KI bewertet sofort Anzahl und Schwere der Fehler und kann so programmiert werden, dass sie Maßnahmen zur Minimierung von Ausschuss empfiehlt oder automatisch einleitet.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Tatsächlich ist es möglich, dass KI-gestützte Bildverarbeitungssysteme Qualitätsabweichungen analysieren, die auf ein bevorstehendes Problem hindeuten. Mit anderen Worten: KI kann trainiert werden, Qualitätsveränderungen zu erkennen und das Überwachungspersonal der Fertigungslinie zu warnen, bevor echte Fehler auftreten. Das alles führt zu weniger Stillstandszeiten.Schätzungen zufolge kann der Einsatz von KI in der Fertigung die Maschinenausfallzeiten um 30 bis 50 Prozent und qualitätsbezogene Kosten um 10 bis 20 Prozent senken.

Unfälle vermeiden mit Edge AI

Ein weiteres zentrales Thema in der Fertigung ist die Arbeitssicherheit. Edge AI ist elementar, um Daten aus Überwachungskameras zu analysieren und potenziell gefährliche Situationen oder Verhaltensweisen zu erkennen. Unternehmen nutzen Edge AI, um Datenströme aus CCTV, Maschinen und Betriebssoftware zu verknüpfen und so Gefahren in Echtzeit vorherzusagen. KI-Modelle könnten zum Beispiel erkennen, wenn Mitarbeitende keine Schutzausrüstung tragen oder sich zu nah an gefährliche Maschinen begeben. Mit dem zunehmenden Einsatz autonomer mobiler Systeme wird KI auch hier immer wichtiger, um Unfälle zu vermeiden.Die Verarbeitung großer Datenmengen in Echtzeit ist nur mit Edge AI praktikabel, und da die meisten Werke ohnehin Videoüberwachung nutzen, ist es nur konsequent, diese Daten optimal zu nutzen.

Optimierte KI-Lösungen

Der Markt für Edge-AI-Server wächst rasant. Hersteller sollten auf langfristige Zuverlässigkeit achten, da IT-Systeme in der Fertigung deutlich länger im Einsatz sind. Neben Rechenleistung zählen Faktoren wie MTBF, Temperaturbereich oder Widerstand gegen Stöße; in staubigen Umgebungen eignen sich lüfterlose Systeme. Die größte Herausforderung ist die optimale Abstimmung der Infrastruktur auf die jeweiligen Workloads. Modulare Serverarchitekturen ermöglichen individuelle Konfigurationen und erleichtern spätere Upgrades. Für eigene Anwendungen helfen SDKs mit vorkonfigurierten Modulen, die Entwicklung zu beschleunigen und die Markteinführungszeit zu verkürzen.

Die richtige Hard- und Software

Der Supermicro SYS-212B-FN2T vereint hohe Rechenleistung mit einem kompakten Short-Depth-Design. Das 2-HE-System mit Intel Xeon Prozessor kann mit bis zu zwei Nvidia GPUs ausgestattet werden. (Bild:  Supermicro)
Der Supermicro SYS-212B-FN2T vereint hohe Rechenleistung mit einem kompakten Short-Depth-Design. Das 2-HE-System mit Intel Xeon Prozessor kann mit bis zu zwei Nvidia GPUs ausgestattet werden.
(Bild: Supermicro)

Supermicro verfolgt einen modularen Ansatz beim Serverbau und bietet eines der breitesten Portfolios der Branche, mit einer großen Auswahl an Standardprodukten für Cloud und Edge. Das erleichtert die Entwicklung optimierter Lösungen. Supermicro Edge-AI-Lösungen bringen die Leistung moderner KI-Beschleuniger in robuste, dezentrale Umgebungen wie Fabrikhallen und lassen sich nahtlos in zentrale Geschäftsprozesse integrieren. Die langjährige Erfahrung von Supermicro im KI-Bereich hat zu einer engen Partnerschaft mit Nvidia geführt, dem weltweit führenden Anbieter von KI-Lösungen.

Für den erfolgreichen Einsatz von KI-Anwendungen am Edge ist spezialisierte Hardware erforderlich. KI-Beschleuniger sind die Arbeitspferde, die große Datenmengen auf Basis vortrainierter Modelle verarbeiten. Nvidia ist der weltweite Marktführer für diese Beschleuniger und bietet eine breite Palette KI-optimierter CPU- und GPU-Module für unterschiedlichste Workloads und Einsatzszenarien. Die Nvidia Jetson Orin NX Plattform für Embedded-Edge sowie die Nvidia RTX PRO 6000 Blackwell Server Edition und die Nvidia H200 NVL GPUs für Enterprise-Edge sind Beispiele für Lösungen, die je nach Datenvolumen, Leistungsbedarf und Einsatzumgebung ausgewählt werden können. Entscheidend ist, dass Serverplattform und KI-Beschleuniger optimal aufeinander abgestimmt sind.

Die Entwicklung eigener KI-Anwendungen ist komplex und teuer. Plattformen wie Nvidia Metropolis erleichtern dies mit vortrainierten Modellen, SDKs und optimierter Infrastruktur für schnelle Videoanalyse-Lösungen. So lassen sich Anwendungen schneller einführen, Kosten senken und Produktion sowie Sicherheit verbessern – ohne bei null starten zu müssen.

Matthias Huber ist Sr. Director, Solutions Manager, IoT/ Embedded & Edge Computing bei Supermicro.