Deutschland - Kennzeichen Deutschland

Incoterms:DDP
Alle Preise sind inklusive Zoll und Gebühren bei der Auswahl der Versandart.

Bitte bestätigen Sie Ihre Währungsauswahl:

Euro
Versand ist kostenfrei bei den meisten Bestellungen über 50 € (EUR)

US Dollar
Versand ist kostenfrei bei den meisten Bestellungen über $60 (USD)

Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Die neuesten Trends in der Welt der KI Stephen Cassar

Drei neue Entwicklungen, über die jeder KI-Engineer im Bilde sein sollte

Ende 2019 prognostizierte die International Data Corporation (IDC), dass die weltweiten Ausgaben für KI-Systeme bis zum Jahr 2023 auf 97,9 Mrd. US-Dollar ansteigen werden – und damit fast das Dreifache der 37,5 Mrd. US-Dollar von 2019 betragen. Selbst die Beeinträchtigungen durch die COVID-19-Pandemie haben diese Entwicklung nicht gebremst.

Experten für Künstliche Intelligenz (KI) tun also gut daran, die Augen für neue Trends offenzuhalten und Möglichkeiten zu erkennen, um die eigenen Kompetenzen zu erweitern und von diesen neuen Entwicklungen zu profitieren. In diesem Zusammenhang haben wir uns drei Bereiche näher angesehen, die Sie kennen sollten, denn jeder einzelne dieser Trends könnten Ihnen helfen, sich auf die von den Experten vorhergesagte Wachstumsexplosion vorzubereiten.

Embedded-Systeme für AIoT-Anwendungen

Bis vor kurzem war es für Entwickler eine Selbstverständlichkeit, die Verarbeitung großer Datenmengen nur in Rechenzentren durchzuführen. Eine lokale Verarbeitung von Daten stand nicht zur Debatte. Jetzt aber hat die Leistung von Supercomputern entscheidende Grenzwerte im Hinblick auf Größe, Kosten und Energiebedarf überschritten. So kam beispielsweise im Mai 2020 das NVIDIA® Jetson Xavier NX™ Entwicklerkit auf den Markt. Es lässt sich mit 10 Watt betreiben und ist schon für unter 400 US-Dollar zu haben. Mit bis zu 21 TOPS beschleunigter Rechenleistung können moderne neuronale Netze parallel ausgeführt und Daten aus mehreren hochauflösenden Sensoren verarbeitet werden – eine Voraussetzung für vollständig KI-basierende Systeme. Und auch die Mitbewerber von NVIDIA werden in Kürze nachziehen.

Diese Fortschritte vereinfachen die Entwicklung von KI- und multimodalen ML-Anwendungen, die mit der Cloud verbunden sind, erheblich (Abbildung 1). Stellen Sie sich vor, Sie entwickeln ein fortschrittliches System zur Verarbeitung  von Live-Video- und Wärmebildern, das potenzielle Bedrohungen durch Besucher mit hohem Fieber oder nicht zugelassene Personen erkennt. Selbst mit der 5G-Technologie ist es nicht praktikabel, hochauflösende Live-Video- und Wärmebildsensordaten zur Verarbeitung in die Cloud hochzuladen, damit sie in einer Remote-Serverfarm verarbeitet werden, denn das kann dauern. Zunächst müssen die Algorithmen zur Gesichtserkennung und Risikobewertung zum Einsatz kommen und deren Ergebnisse anschließend rückübertragen werden – was unter Umständen erst Minuten später erfolgt. Die einzige Lösung besteht darin, die Live-Daten lokal zu verarbeiten, damit das System den Bedrohungsgrad zeitnah einschätzen kann.

Abbildung 1: Mit der Cloud verbundene KI-Anwendungen sind auf dem Vormarsch (Quelle: Phonlamai Photo/Shutterstock.com)

Dieses theoretische System gibt es heute mit Standardkameras und Wärmebildgeräten und dem 8-Core-Modul von NVIDIA, das als komplettes Entwicklerkit für unter 400 US-Dollar angeboten wird. Die üblichen KI-Bausteine wie Objekterkennung, Text-zu-Sprache-System, Klassifikation, Recommender Engine, automatische Übersetzung, Stimmungsanalyse und weitere finden sich mittlerweile in vortrainierten Modellen. Anwendungen mit solchen Funktionsfähigkeiten lassen sich deutlich schneller entwickeln, wenn man diese Modelle als Grundlage nimmt und sie dann entsprechend ihrer jeweiligen Einsatzmöglichkeiten anpasst. Mit Hunderten solcher Modelle bietet die NVIDIA GPU Cloud (NGC)-Bibliothek einen schnellen Einstieg in gängige KI-Aufgaben. Zudem sind sie bereits für das Modul Jetson Xavier und weitere Angebote des Unternehmens optimiert. Wenn das Projekt erst einmal am Laufen ist, kann man diese Modelle leicht neu trainieren, indem man nur wenige Schichten aktualisiert. Das spart jede Menge Zeit.

Die leistungsstarken Supercomputer eignen sich perfekt für Smart-Kamera-Projekte wie das oben genannte. Sie können aber auch zum Erstellen einer unbegrenzten Anzahl anderer hochleistungsfähiger KI-Systeme eingesetzt werden, wie etwa medizinische Geräte, automatische optische Inspektion, Roboter für kommerzielle Anwendungen und vieles mehr.

Erzeugung natürlicher Sprache (Natural Language Generation, NLG) / Dialogorientierte KI (Conversational AI)

Bedeutende Fortschritte bei der Erzeugung natürlicher Sprache – und hierbei insbesondere das Sprachmodell Turing Natural Language Generation (T-NLG) von Microsoft – haben KI-Entwicklern bislang verschlossene Türen geöffnet. Allerdings war dies nur mit kreativem Engineering möglich.

Eine einzelne GPU kann keine Modelle mit mehr als 1,3 Milliarden Parametern unterstützen – auch nicht mit 32 GB RAM. Um dieses Problem zu lösen, machte sich das Microsoft-Team verschiedene Durchbrüche im Hard- und Software-Bereich zunutze. So nutzte das Team ein Hardware-Setup von NVIDIA mit superschneller Kommunikation zwischen den Grafikprozessoren und verteilte das Modell mittels Tensor Slicing über vier GPUs. Der Modellparallelisierungsrad konnte dadurch von 16 auf 4 reduziert werden, wodurch die Batchgröße pro Knoten um 400 Prozent erhöht und die Trainingsgeschwindigkeit verdreifacht wurden. Das Ergebnis namens DeepSpeed trainiert bei einer Batchgröße von 512 mit nur 256 GPUs im Vergleich zu 1024 GPUs, die bei früheren Konfigurationen benötigt wurden. Das Beste ist jedoch, dass Sie diesen letzten Abschnitt nicht verstehen müssen, um die Technologie nutzen zu können.

Die seit Februar 2020 erhältliche Betaversion von T-NLG macht es möglich, Suchanfragen mit vollständigen Sätzen zu beantworten und so eine Sprache zu erzeugen, die in Echtzeit dialogfähig ist. Stellen Sie sich einen Chatbot vor, der intelligent genug ist, Ihre Sprache zu sprechen und auf absolut sinnvolle Weise zu antworten.

T-NLG ist mit 17 Milliarden Parametern das mit Abstand größte Sprachmodell seiner Art. Es ermöglicht die Erstellung von Anwendungen, die beispielsweise Autoren beim Verfassen ihrer Inhalte oder beim Erstellen von Auszügen langer Texte unterstützen können. Oder stellen Sie sich vor, Sie könnten die Kundenzufriedenheit mit einem digitalen Assistenten erhöhen, der wesentlich „intelligenter“ als alle digitalen Assistenten ist, die man kennt. Wir sind davon überzeugt, dass KI-Entwickler, die sich jetzt mit Tools zur Erzeugung natürlicher Sprache vertraut machen, neue Kompetenzen erlernen können, die in den nächsten Jahren in hohem Maße marktfähig sein werden.

Der Einstieg in T-NLG ist einfacher, als man denkt, besonders wenn man bereits die Programmiersprache Python verwendet. Auf GitHub können Sie sich mit der DeepSpeed Library Repo (kompatibel mit PyTorch) vertraut machen und direkt einsteigen. Diese API-Bibliothek macht das verteilte Training einfach, effizient und effektiv – und zwar mit Deep-Learning-Modellen, die zehnmal größer und fünfmal schneller sind. So können Sie hundert Milliarden Parameter nutzen, um Modelle in Rekordzeit zu trainieren.

Neuroinformatik und evolutionäre Algorithmen

Ein typischer Engpass in KI-Systemen und -Anwendungen ist die Datenbank – ein Problem, das sich nicht einfach durch mehr Rechenleistung oder Speicher lösen lässt. In diesem Zusammenhang gibt es jedoch eine Entwicklung, die Sie im Auge behalten sollten: die Anwendung von neuronalen Netzen beim Entwurf von Datenbanksystemen.

In einem Versuchsdesign für ein Datenmanagementsystem von MIT und Google werden in einem neuronalen Netz die Kernkomponenten ausgetauscht, was die Leistung gegenüber cache-optimierten B-Bäumen um bis zu 70 % steigert und gleichzeitig den Speicherbedarf reduziert.

Die „erlernten Indizes“ trainieren sich schnell die Struktur der Lookup-Keys der Datenbank an und nutzen sie zur Vorhersage der Position von Datensätzen. Neuronale Netze bergen das Potenzial, einen erheblichen Einfluss auf zukünftige Systementwürfe auszuüben. Deswegen sind wir der Meinung, dass man sich mit diesem Thema unbedingt auseinandersetzen sollte. Ob AIoT, NLG oder Neuroinformatik: Es gibt eine Reihe bahnbrechender Trends, die man besser nicht verpassen sollte. Machen Sie sich mit den neuen Technologien vertraut – und Sie sind für die spannenden KI-Innovationen der Zukunft bestens gerüstet.



« Zurück


Stephen Cassar wird oft eingeladen, Fortune-100-Unternehmen bei allgemeinen Produktstrategien und bei Fragestellungen rund um die Systemarchitektur zu beraten, insbesondere in Bezug auf Workflow-Management, E-Commerce, künstliche Intelligenz und maschinelles Lernen. Dabei vermittelt er einen objektiven Blick auf aktuelle Prozesse und empfiehlt kleine Strategieänderungen, die langfristig große Ergebnisse und sofortigen ROI bringen.

Als CTO / Chief System Architect bringt Stephen Cassar ein profundes Wissen darüber mit, was es braucht, um erfolgreiche Software-as-a-Service-Plattformen zu entwickeln, die oft mehrere Legacy-Systeme kombinieren, um eine sichere, einheitliche Sicht auf komplexe Datensätze durch skalierbare Cloud-basierte Architekturen zu erzielen.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen