Deutschland - Kennzeichen Deutschland

Incoterms:DDP
Alle Preise sind inklusive Zoll und Gebühren bei der Auswahl der Versandart.

Bitte bestätigen Sie Ihre Währungsauswahl:

Euro
Versand ist kostenfrei bei den meisten Bestellungen über 50 € (EUR)

US Dollar
Versand ist kostenfrei bei den meisten Bestellungen über $60 (USD)

Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Näher am Netzwerk-Edge Mark Patrick

Einführung in das maschinelle Lernen 

Maschinelles Lernen ist das Herzstück der meisten KI-Anwendungen und; dabei lernen Computer, Muster in Daten zu erkennen. Genauer gesagt geht es darum, ein trainiertes Modell zu entwickeln. Dies kann mit überwachtem Lernen geschehen, wobei dem Computer Beispiele gezeigt werden, von denen er lernen kann. Alternativ kann der Prozess unüberwacht ablaufen, wobei der Computer einfach nach interessanten Mustern in den Daten sucht. Es gibt auch Techniken, die ein kontinuierliches bzw. ständiges Lernen beinhalten, bei denen der Computer aus seinen Fehlern lernt, die jedoch nicht Gegenstand dieses Artikels sein sollen.

Ausführen Ihres ML-Modells.

Sobald das ML-Modell erstellt wurde, kann es auf die betreffende Aufgabe angewendet werden. Modelle können für die Vorhersage zukünftiger Ereignisse, die Identifizierung von Anomalien und die Bild- oder Spracherkennung verwendet werden. In nahezu allen Fällen stützen sich die Modelle auf große, tiefe Baumstrukturen und benötigen zur Ausführung erhebliche Rechenleistung. Dies gilt insbesondere für Modelle der Bild- und Spracherkennung, die in der Regel auf künstlichen neuronalen Netzen basieren. Neuronale Netzwerke erzeugen dicht vermaschte Algorithmen und müssen daher auf hochgradig parallelisierter Hardware ausgeführt werden, die häufig auf GPUs basiert. Bis vor kurzem war eine solche Rechenleistung nur von Anbietern Cloud-basierter Dienste wie AWS oder Azure erhältlich.

Um eine Vorstellung von der erforderlichen Leistung zu bekommen, zeigt die folgende Tabelle die Spezifikationen von AWS-P3-Instanzen, einer für ML-Anwendungen optimierten Verarbeitungsplattform

 

 

Typ

GPUs

vCPUs

RAM

GPU RAM

Speicher-Bandbreite

Netzwerk-Bandbreite

P3.2XL

1

8

61 GB

16 GB

1,5 Gbit/s

~10 Gbit/s

P3.8XL

4

32

244 GB

64 GB

7 Gbit/s

10 Gbit/s

P3.16XL

8

64

488 GB

128 GB

14 Gbit/s

25 Gbit/s

P3.24XL

8

96

768 GB

256 GB

19 Gbit/s

100 Gbit/s

Tabelle 1: Spezifikationen von AWS P3-Instanzen

 

Dabei handelt es sich um sehr starke Geräte. Sie verfügen über riesige RAM-Ressourcen und extrem schnellen Netzwerk- und Speicherzugang. Vor allem verfügen sie über eine erhebliche CPU- und GPU-Verarbeitungsleistung, eine Anforderung, die das Ausführen von ML-Modellen an der Network Edge zu einer echten Herausforderung macht.

Die Nachteile der zentralisierten KI

Bis dato haben sich die meisten bekannten KI-Anwendungen auf die Cloud verlassen, weil es so schwierig ist, ML-Modelle an der Edge auszuführen. Diese Abhängigkeit vom Cloud Computing bringt jedoch einige Einschränkungen bei der Verwendung der KI mit sich. Hier ist eine Liste mit einigen der operativen Nachteile einer zentralisierten KI. 

Einige Anwendungen können nicht in der Cloud ausgeführt werden

Für den Betrieb der KI in der Cloud ist eine zuverlässige Netzwerkverbindung mit ausreichender Kapazität erforderlich. Steht diese nicht zur Verfügung, vielleicht aufgrund mangelnder Infrastruktur, müssen einige KI-Anwendungen lokal laufen. Mit anderen Worten, diese Anwendungen funktionieren nur, wenn Sie Ihre ML-Modelle an der Edge ausführen können. 

Betrachten wir das Beispiel des selbstfahrenden Fahrzeugs, das einige Aufgaben erfüllen muss, die auf maschinelles Lernen angewiesen sind. Die wichtigste dieser Aufgaben ist die Objekterkennung und -vermeidung. Dies erfordert recht anspruchsvolle ML-Modelle, die ein erhebliches Maß an Rechenleistung benötigen. Allerdings haben selbst vernetzte Autos nur Verbindungen mit geringer Bandbreite, und diese Verbindungen sind unbeständig (obwohl 5G dies verbessern könnte). 

Diese Einschränkung gilt auch bei der Entwicklung intelligenter IoT-Überwachungssysteme für den Bergbau und andere Schwerindustrien. Häufig gibt es lokal ein schnelles Netzwerk, aber möglicherweise ist die Internet-Konnektivität auf einen Satelliten-Uplink angewiesen.

Auf die Latenz kommt es an

Viele ML-Anwendungen müssen in Echtzeit arbeiten. Selbstfahrende Autos sind, wie oben erwähnt, eine solche Anwendung, aber es gibt auch Einsatzgebiete wie die Echtzeit-Gesichtserkennung. Diese kann für Türeingangssysteme oder zu Sicherheitszwecken verwendet werden; beispielsweise verwenden Polizeikräfte diese Technologie häufig zur Überwachung von Menschenmengen bei Sport- und anderen Veranstaltungen, um bekannte Unruhestifter zu identifizieren. 

KI wird auch zunehmend zur Entwicklung intelligenter medizinischer Geräte eingesetzt. Einige von ihnen müssen in Echtzeit arbeiten, um echte Vorteile zu erzielen, aber die durchschnittliche Umlaufzeit für die Verbindung zu einem Datenzentrum liegt in der Größenordnung von 10 bis 100 ms. Echtzeitanwendungen sind daher schwierig durchzuführen, ohne Ihre ML-Modelle näher an die Network Edge zu bringen.

Sicherheit kann ein Thema sein

Viele ML-Anwendungen befassen sich mit vertraulichen oder sensiblen Daten. Es ist eindeutig möglich, diese Daten sicher über das Netzwerk zu versenden und in der Cloud zu speichern. Lokale Richtlinien verbieten dies jedoch häufig. Gesundheitsdaten sind besonders sensibel, und in vielen Ländern gibt es strenge Regeln für die Übermittlung an einen Cloud-Server. Grundsätzlich ist es immer einfacher, die Sicherheit eines Geräts zu gewährleisten, das nur an ein lokales Netzwerk angeschlossen ist. 

Kosten

Abonnements für ML-optimierte Cloud-Instanzen können teuer sein – die niedrigste in Tabelle 1 gezeigte Spezifikationsinstanz kostet etwa 3 US-Dollar pro Stunde. Viele Cloud-Anbieter erheben zusätzliche Gebühren, die ebenfalls berücksichtigt werden müssen, z. B. für Speicher und Netzwerkzugang. Realistisch betrachtet könnte die Ausführung einer KI-Anwendung bis zu 3.000 US-Dollar pro Monat kosten.

Fazit

Die erfolgreiche Implementierung von maschinellem Lernen erfordert in der Regel Cloud- oder Server-basierte Ressourcen mit beträchtlicher Rechenleistung. Mit der Weiterentwicklung von Anwendungen und der Entstehung neuer Anwendungsfälle wird die Verlagerung des maschinellen Lernens an die Network Edge jedoch immer attraktiver, insbesondere wenn Latenz, Sicherheit und Implementierungskosten vorrangige Erwägungen sind.



« Zurück


Als Technical Marketing Manager für die EMEA-Region bei Mouser Electronics ist Mark Patrick für die Erstellung und Verbreitung von technischen Inhalten innerhalb der Region verantwortlich – Inhalte, die für Mousers Strategie zur Unterstützung, Information und Inspiration seines technisch versierten Publikums von zentraler Bedeutung sind.

Bevor er das Technical-Marketing-Team leitete, war Patrick Mitglied des EMEA-Supplier-Marketing-Teams und spielte eine wichtige Rolle beim Aufbau und der Entwicklung von Beziehungen zu wichtigen Herstellern.

Zusätzlich zu einer Vielzahl von technischen und Marketing-Positionen war Patrick acht Jahre lang bei Texas Instruments in den Bereichen Anwendungsunterstützung und technischer Vertrieb tätig.

Als praxisorientierter Ingenieur mit einer Leidenschaft für Vintage-Synthesizer und Motorräder schraubt und repariert er gerne an beidem herum. Patrick hat einen First Class Honours Degree in Electronics Engineering von der Coventry University.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen