Deutschland - Kennzeichen Deutschland

Incoterms:DDP
Alle Preise sind inklusive Zoll und Gebühren bei der Auswahl der Versandart.

Bitte bestätigen Sie Ihre Währungsauswahl:

Euro
Versand ist kostenfrei bei den meisten Bestellungen über 50 € (EUR)

US Dollar
Versand ist kostenfrei bei den meisten Bestellungen über $60 (USD)

Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Verteilte Analysen über die Cloud hinaus Charles Byers

(Quelle: everything possible/Shutterstock.com)

Analytik ist ein sehr allgemeiner Begriff für das Korrelieren und Verarbeiten von Rohdaten, um sinnvolle Ergebnisse zu erzielen. Die Analysealgorithmen können so einfach sein wie Datenreduktion oder Mittelwertbildung bei einem Strom von Sensormesswerten oder so komplex wie die ausgefeiltesten Systeme für künstliche Intelligenz oder maschinelles Lernen (KI/ML). Heute werden Analysen häufig in der Cloud durchgeführt, da dies die skalierbarste und kostengünstigste Lösung ist. In Zukunft werden Analysen jedoch zunehmend über die Cloud, Edge Computing und Endgeräte verteilt, um deren verbesserte Latenz, Netzwerkbandbreite, Sicherheit und Zuverlässigkeit zu nutzen. Hier werden wir einige der Architekturen und Kompromisse diskutieren, die mit der Verteilung von Analysen über die Grenzen der traditionellen Cloud hinaus verbunden sind.

Wie verteilte Analytik einen Mehrwert schafft

Einfache Analysen beinhalten Datenreduktion, Korrelation und Mittelwertbildung, was zu einem Ausgabedatenstrom führt, der viel kleiner ist als die Eingabedaten. Betrachten wir beispielsweise ein System, das ein großes Gebäude mit Frischwasser versorgt. Es könnte sinnvoll sein, die Druck- und Durchflusswerte an verschiedenen Punkten im System zu kennen, um die Pumpen zu optimieren und den Verbrauch zu überwachen. Dies könnte eine Reihe von Druck- und Durchflusssensoren umfassen, die über die Verteilungsrohre verteilt sind. Die Software fragt periodisch die Sensoren ab, passt die Pumpeneinstellungen an und erstellt einen Verbrauchsbericht für die Gebäudemanager. Die Rohdaten der Sensoren können jedoch irreführend sein–z. B. ein kurzzeitiger Druckabfall, wenn ein Gerät gespült wird. Analysealgorithmen können die Messwerte eines bestimmten Sensors über die Zeit mitteln und die Messwerte mehrerer Sensoren kombinieren und korrelieren, um ein genaueres und nützlicheres Bild der Bedingungen in den Rohrleitungen zu erstellen. Alle diese Messwerte könnten an eine Analyseeinheit in der Cloud gesendet werden, aber es wäre eine viel effizientere Architektur, wenn die Sensoren einen Teil der Mittelwertbildung selbst vornehmen würden und lokale Edge-Computer die Korrelation und das Reporting übernehmen würden. Das nennt man verteilte Analytik, und sie kann die Effizienz, die Genauigkeit und die Kosten vieler Analysesysteme verbessern.

Die Analytik wird komplizierter, wenn KI/ML-Techniken eingesetzt werden. KI/ML arbeitet in der Regel in zwei Phasen:

  • Eine Modellbildungsphase, in der große Datenmengen destilliert werden, um ein Modell für das KI/ML-System zu erstellen
  • Eine Inferenzphase, in der dieses Modell auf die in einem System fließenden Daten angewendet wird, um die gewünschten Ergebnisse zu erzeugen, oft in Echtzeit

Bei den heutigen Systemen werden die Modelle fast immer in großen Serverfarmen oder in der Cloud erstellt, oft als Offline-Prozess. Dann werden die resultierenden KI/ML-Modelle zusammengefasst und an verschiedene Systeme versandt, die die Inferenzphase der Modelle auf Live-Daten ausführen und die gewünschten Ergebnisse erzeugen. Die Inferenzphase kann in der Cloud ausgeführt werden, hat sich aber in letzter Zeit in Richtung Edge verlagert, um Latenz, Netzwerkbandbreite, Zuverlässigkeit und Sicherheit zu verbessern. Bei der Entscheidung, welche Stufe von Rechenressourcen für jede Phase verwendet werden soll, sind Kompromisse zu berücksichtigen.

 

Inferenzphase von KI/ML

Die Inferenzphase der KI/ML lässt sich relativ einfach auf mehrere Prozessoren auf Peer-Ebene oder eine Hierarchie von Verarbeitungsschichten nach oben und unten verteilen. Wenn die Modelle vorberechnet sind, können die Daten, auf denen die KI/ML-Algorithmen arbeiten, auf mehrere Prozessoren aufgeteilt und parallel bearbeitet werden. Die Aufteilung der Arbeitslast auf mehrere Prozessoren auf Peer-Ebene bietet Kapazitäts-, Leistungs- und Skalierungsvorteile, da bei steigender Arbeitslast mehr Rechenressourcen zum Einsatz kommen können. Zudem kann die Systemzuverlässigkeit verbessert werden, da benachbarte Prozessoren immer noch zur Verfügung stehen, um die Arbeit zu erledigen, wenn ein Prozessor ausfällt. Die Inferenz kann auch auf mehrere Ebenen einer Hierarchie aufgeteilt werden, vielleicht mit verschiedenen Teilen des Algorithmus, die auf verschiedenen Ebenen des Prozessors arbeiten. Dadurch können die KI/ML Algorithmen auf logische Weise aufgeteilt werden, so dass jede Ebene der Hierarchie die effizienteste Teilmenge des Algorithmus ausführen kann. In einem KI/ML-System für die Videoanalyse könnte die Intelligenz in der Kamera beispielsweise eine adaptive Kontrastverbesserung durchführen, diese Daten an Edge-Computer weitergeben, um eine Merkmalsextraktion durchzuführen, sie an benachbarte Datenzentren senden, um eine Objekterkennung durchzuführen, und schließlich könnte die Cloud High-Level-Funktionen wie die Erkennung von Bedrohungen oder die Erstellung von Heatmaps durchführen. Dies kann eine sehr effiziente Partitionierung sein.

 

Lernphase von KI/ML-Algorithmen

Die Lernphase von KI/ML-Algorithmen ist schwieriger zu verteilen. Das Problem ist die Kontextgröße. Um ein Modell vorzubereiten, nimmt das KI/ML-System große Mengen an Trainingsdaten und verarbeitet sie mit verschiedenen komplexen Algorithmen der Lernphase, um ein Modell zu generieren, das in der Inferenzphase relativ einfach ausgeführt werden kann. Wenn nur ein Teil der Trainingsdaten auf einem bestimmten Rechenknoten verfügbar ist, haben die Algorithmen Schwierigkeiten, das Modell zu verallgemeinern. Aus diesem Grund wird das Training meist in der Cloud durchgeführt, wo Speicherplatz und -volumen praktisch unbegrenzt sind. Bestimmte Szenarien erfordern jedoch, dass die Trainingsalgorithmen auf mehrere Rechenknoten auf Peer-Ebene oder nach oben und unten in der Cloud–to-Edge-Hierarchie verteilt werden. Insbesondere das Lernen an der Edge ermöglicht es dem Lernprozess, viele Trainingsdaten von nahegelegenen Sensoren zu sammeln und darauf zu reagieren, ohne dass die Cloud involviert ist–, was die Latenz, Zuverlässigkeit, Sicherheit und Netzwerkbandbreite verbessert. Derzeit werden fortschrittliche Algorithmen für verteiltes Lernen entwickelt, um diese Herausforderungen zu meistern.

Fazit

KI/ML ist eine wichtige Fähigkeit für fast alle zukünftigen elektronischen Systeme. Das Verständnis der Optionen, wie die Inferenz- und Trainingsfähigkeiten dieser Systeme über eine Hierarchie von Rechenressourcen partitioniert werden können, ist der Schlüssel zu unserem zukünftigen Erfolg.



« Zurück


CHARLES C. BYERS ist Associate Chief Technology Officer des Industrial Internet Consortium now incorporating OpenFog. Er arbeitet an der Architektur und Implementierung von Edge-Fog-Computing-Systemen, gemeinsamen Plattformen, Medienverarbeitungssystemen und dem Internet der Dinge. Zuvor war er Principal Engineer und Platform Architect bei Cisco und Bell Labs Fellow bei Alcatel-Lucent. In seinen drei Jahrzehnten in der TK-Netzwerkindustrie hat er bedeutende Beiträge in den Bereichen Sprachvermittlung, Breitbandzugang, konvergente Netzwerke, VoIP, Multimedia, Video, modulare Plattformen, Edge-Fog-Computing und IoT geleistet. Darüber hinaus hatte er Führungspositionen in mehreren Standardisierungsgremien inne, darunter als CTO für das Industrial Internet Consortium und das OpenFog Consortium, und war Gründungsmitglied der PICMG-Unterausschüsse AdvancedTCA, AdvancedMC und MicroTCA.

Byers hat einen Abschluss als Bachelor of Science in Elektro- und Computertechnik sowie als Master of Science in Elektrotechnik von der University of Wisconsin, Madison. Seine liebsten Freizeitbeschäftigungen sind Reisen, Kochen, Fahrradfahren und das Basteln in seiner Werkstatt. Er hat über 80 US-Patente inne.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen