Deutschland - Kennzeichen Deutschland

Incoterms:DDP
Alle Preise sind inklusive Zoll und Gebühren bei der Auswahl der Versandart.

Bitte bestätigen Sie Ihre Währungsauswahl:

Euro
Versand ist kostenfrei bei den meisten Bestellungen über 50 € (EUR)

US Dollar
Versand ist kostenfrei bei den meisten Bestellungen über $60 (USD)

Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Den Algorithmus der Fahrzeugerkennung enträtseln Wang Jing

Quelle: Zapp2Photo/ShutterStock.com

Die Fahrzeugerkennungstechnologie erscheint auf den ersten Blick rätselhaft. Im Wesentlichen werden mittels mathematischer Formeln Pixelmerkmale in einem bestimmten Bereich des Bildes berechnet und dann anhand der Beurteilung der Merkmale die zugehörige Objektklasse festgelegt. Die Methode der Objekterkennung lässt sich mit den zwei Schritten Merkmalsextraktion und Klassifikation zusammenfassen. Die üblichen Methoden sind die Stützvektormethode (Support Vector Machine, SVM) und die Histogramme orientierter Gradienten (Histograms of Oriented Gradients, HOG), die zusammenwirken.

In diesem Artikel wird dieser gängige Algorithmus zur Fahrzeugerkennung auf nachfolgende Weisen vorgestellt, um sein Geheimnis zu lüften und dem Leser zudem ein klares Verständnis des maschinellen Lernprozesses zu vermitteln.

  1. Kurzdarstellung der Anwendungsszenarien
  2. Detaillierte Einführung in die Berechnungsverfahren der HOG-Merkmale
  3. Kurze Einführung in die Arbeitsprozesse der SVM
  4. Vergleich und Zusammenfassung

Kurzdarstellung der Anwendungsszenarien

Die Technologie der Fahrzeugerkennung findet im tatsächlichen Leben breite Verwendung, wie in den folgenden Beispielen von in Fahrzeugen verbauten Vorrichtungen beschrieben. Manche der üblicherweise gefahrenen privaten Personenwagen sind mit einer Heckkamera ausgestattet. Wenn ein anderes Fahrzeug einen festgelegten rückwärtigen Abstand zum Fahrzeug unterschreitet, wird dieses System aktiviert, nach der Erkennung im hinteren Bereich des Fahrzeugs ertönt ein Warnsignal, und der Fahrer wird darauf hingewiesen, langsamer zu fahren (Abbildung 1). Ein weiteres Beispiel ist die Anwendung im Bereich des autonomen Fahrens. Durch die Lokalisierung der umgebenden Fahrzeuge werden Geschwindigkeit und Entfernung anderer Fahrzeuge sowie sonstige Interferenzfaktoren analysiert und daraufhin die Fahrspur des Fahrzeugs verändert.  

Abbildung 1 (Quelle: PyImageSearch): Die Heckkamera hat in dem rechteckigen Rahmen die Position des Fahrzeugs auf dem Bild erkannt

Systeme zur Fahrzeugerkennung werden auch häufig für die Verkehrssteuerung und die Verkehrsüberwachung eingesetzt (Abbildung 2), z.B. wird dieses System zur Überwachung an Tunneleinfahrten installiert. Auf diese Weise wird für jede Zeit des Tages der Verkehrsfluss berechnet, um Regelungen zur Beschränkung zu implementieren und die Unfallzahlen zu reduzieren. Weiterhin werden die Fahrer informiert, welche Straßenabschnitte überlastet oder relativ ruhig sind, was dem Fahrer die Routenwahl erleichtert und das Ziel erreicht wird, die Verkehrsdichte zu verringern. Außerdem kann die Verkehrsstatistik auch für Parkplätze an Flughäfen und Bahnhöfen genutzt werden. Die Analyse von großen Datenmengen der Zeiten mit knappen Parkplätzen ermöglicht den Angestellten eine vernünftige Ressourcenplanung.

Die Lichtsignale von Fahrzeugerkennungssystemen können mit weiterer Technik kombiniert werden, damit sie das umgebende Verkehrsaufkommen sondieren. Die Mitarbeiter erstellen mittels künstlicher Intelligenz Statistiken aus den großen Datenmengen, und durch die Berechnungen werden vernünftige Zeitintervalle zum Umschalten von Ampelanlagen bestimmt.

Abbildung 2 (Quelle: Intel AI Developer Program): Anwendungsszenario für Fahrzeugerkennungssysteme bei der Verkehrsüberwachung

Algorithmen bei Kombination von HOG und SVM: (40 −16) / 8 +1 =4

Eine Kombination von HOG und SVM bei Fußgängererkennungsmethoden zu verwenden, schlug erstmalig der französische Forscher Dalal 2005 auf der Conference on Computer Vision and Pattern Recognition (CVPR) vor. Seither hat sich der Ansatz HOG + SVM für alle Arten von Objekterkennung entwickelt, einschließlich der Fahrzeug- und Fahrbahnerkennung.

Berechnung der HOG-Merkmale

  1. HOG ist ein Algorithmus zur lokalen Merkmalsextraktion. Bei großen Bildern mit komplexem Hintergrund kann auch bei Extraktion vieler Merkmale das Ziel der Objekterkennung nicht erreicht werden. Um dieses Ziel zu erreichen, müssen wir das Bild zuschneiden. Experimente haben gezeigt, dass das Fahrzeug als Zielobjekt mehr als 80 % des Bildes ausmachen muss, um ein gutes Ergebnis zur erzielen. Das zugeschnittene Teilbild wird in Bereiche unterteilt (Block), und für jeden Bereich werden, mit einer Zelle(Cell)als Einheit, die Merkmale extrahiert (in dem Bild bilden mehrere Pixel eine Zelle (Cell), und mehrere Zellen (Cell) einen Bereich (Block)). Die nachstehende Abbildung 4 erläutert beispielhaft den Berechnungsprozess der HOG-Merkmale. Zuerst wird ein Bild auf 40x40 zugeschnitten (Einheit: Pixel). Anschließend müssen wir folgende Variablen definieren:

Abbildung 4: Ein Block im Verschiebeprozess im zu beschneidenden Bild. Die Abbildung zeigt, dass 4 Zellen (Cell) einen Block mit einer Seitenlänge von 16 Pixeln bilden. Das Bild wird auf eine Länge und eine Breite von jeweils 40 Pixeln zugeschnitten. Die Schrittlänge beträgt 1, d.h. jede Verschiebung beträgt 1 Pixel.

 

  1. Definition der Verschiebeschrittlänge s, z.B.: s=1.
  2. Definition der Zell-Größe mit Pixel als Einheit, z.B. 8x8.
  3. Definition der Block-Größe, z.B.: aus 2x2=4 Zellen zusammengesetzt.
  4. Definition der Anzahl der Bin, deren Menge nach Bedarf bestimmt wird, z.B. Bin = 9. Jeder Bin wird zur Speicherung des kumulativen Wertes der berechneten Histogramm-Gradientenrichtung verwendet. Dieses Prinzip wird nachstehend ausführlich erläutert.
  1. Das eingegebene Bild und die Farbe werden standardisiert, um die Interferenz von Licht oder Schatten auf die Erkennungsgenauigkeit von Objekten im Bild zu reduzieren. Die spezifische Methode besteht darin, die Farbe nach der Gemma-Farbkorrektur in Graustufen umzuwandeln (das Prinzip der Gemma-Farbkorrektur wird hier nicht erläutert).
  2. Berechnung der Gradientengröße.
    Die Berechnungsmethode wird am Beispiel eines Teilbereichs einer Zelle erläutert (Abbildung 5). Es folgt die Formel zur Berechnung des Mittelpunktes mit einem Pixelwert von 25.

Abbildung 5: Größe und Pixelwert eines Bereichs einer Zelle

Bei Verwendung einer vernünftigen Definition einer Faltungskernmethode haben Experimente gezeigt, dass [-1,0,1] zu den besten Ergebnissen führte. Der Faltungskern [-1,0,1] kann als eine Matrix verstanden werden, die zur Berechnung der Richtung der Gradientenamplitude jedes Pixels verwendet wird. Daher können wir für jeden Pixel im Bildbereich horizontal den Faltungskern von [−1,0,1] übernehmen (die x-Achse ist die positive Richtung, nach rechts) und vertikal [−1,0,1]T(die y-Achse ist die positive Richtung, nach oben) übernehmen〖^〗, um horizontale und vertikale Gradientenkomponentenberechnungen durchzuführen, aus dem Quadrat und der Wurzel der beiden wird die Gradientenrichtung des Punktes ermittelt, sodass die Berechnungsformel wie folgt lautet:

Folglich ist bei einem Pixelwert von 25 das Berechnungsverfahren für die Horizontalrichtung wie in Abbildung 6 dargestellt:

Abbildung 6: Pixelwertberechnungsverfahren für die Horizontalrichtung bei einem mittleren Pixelwert von 25

Die Formel lautet:

Folglich ist bei einem Pixelwert von 25 das Berechnungsverfahren für die Vertikalrichtung wie in Abbildung 7 dargestellt:

Abbildung 7: Pixelwertberechnungsverfahren für die Horizontalrichtung bei einem mittleren Pixelwert von 25

Die Formel lautet:

  1. Die Berechnung der Gradientenrichtung erfolgt nach folgender Formel:

  1. Sämtliche Pixel werden in jeder Zelle (Cell) durch Wiederholen von 3-4 berechnet. Die Werte werden anschließend addiert, und man erhält ein Gradientenintegraldiagramm mit 9 Gradientenrichtungen in einer Zelle (Cell) (Abbildung 8).
  1. Die HOG-Merkmale des Bildbereichs (Block) werden gelöst als: Verkettung der Merkmale der enthaltenen Zellen (Cell).
  1. Die HOG-Merkmale des gesamten Bildes werden gelöst als: Verkettung der Merkmale der enthaltenen Bildbereiche (Block).
  1. Berechnungsverfahren der Merkmalsdimensionen:
    Im obigen Beispiel bewegt sich der Block jeweils um 4 Schritte entlang der x- und y-Achse:

    Jeder Block enthält 4 Zellen:

    Berechnungsformel der Merkmalsdimensionen:

    Folglich wird in der Abbildung als Merkmalsdimension 576 errechnet.
  2. Der erhaltene Gradientenvektor wird regularisiert. Das Hauptziel der Regularisierung ist, eine Überanpassung zu verhindern. Eine Überanpassung kann dazu führen, dass beim Training die Klassifizierung das Optimum überschreitet, die Erkennungsrate des Testsatzes aber extrem niedrig ist. Dies ist eindeutig inakzeptabel. Das Prinzip ist dasselbe wie bei der allgemeinen Regularisierung von Merkmalen für maschinelles Lernen. Wenn z.B. die erhaltenen Merkmalswerte zwischen (0,200) verteilt sind, muss man verhindern, dass die Zahlen unterhalb von 200 die Gesamtverteilung der Merkmale beeinflussen (das Modell kann während des Trainings vom Gesamttrend abweichen, um 200 zu erreichen, und dadurch zu einer Überanpassung führen). Daher ist es erforderlich, die Merkmalsverteilung auf ein bestimmtes Intervall zu standardisieren. Dalal beschreibt in seiner Abhandlung, dass das Ergebnis bei Verwendung der L2-Norm annähernd ideal ist. (Hier geben 0 und 200 den Bereich des Merkmalwertes an)
  3. Zur Durchführung des Trainings der Klassifikatoren werden Merkmale und Tags zusammen an die SVM gesendet.

Gradientenrichtung im Histogramm und Bin-Werte

Dalal bemerkt in seiner Abhandlung: "Dieser Schritt zielt darauf ab, eine Indikatorfunktion für den lokalen Bildbereich bereitzustellen, um die Gradientenrichtung zu quantifizieren, die gleichzeitig auch eine schwache Empfindlichkeit für die Erscheinung des erkannten Objekts im Bild beibehalten kann.”

Die Gradientengröße muss entsprechend der Gradientenrichtung in die entsprechende Bin-Variable eingefügt werden. Es gibt zwei Richtungsarten.

Das erste, ungerichtete Verfahren (unsigned) ist für die Erkennung von Fahrzeugen oder anderen Objekten geeignet. Beim zweiten, gerichteten Verfahren (signed) zeigen Experimente, dass es nicht für die Erkennung von Fahrzeugen oder anderen Objekten geeignet ist. Mit diesen Verfahren werden nach Vergrößerung, Verkleinerung oder Drehung des Bildes die Pixel in ihre ursprüngliche Position zurückgebracht. Für eine weiterführende Betrachtung können Sie auf den Link der 5. Referenz klicken.

1. Ungerichtet (0, π)

Im Folgenden wird eine detaillierte Erläuterung der ungerichteten Interpolation gegeben.

Die Darstellung erfolgt in diesem Artikel anhand von drei Tabellen. In jeder Tabelle wird in der ersten Zeile die berechnete Amplitude angegeben. In der zweiten Zeile wird der bestimmte Bin-Richtungswert angegeben, hergeleitet durch Teilung von 180° durch die Anzahl der definierten Bin. Die dritte Zeile ist die laufende Bin-Nummer, beginnend mit 0.

Entsprechen der tatsächlichen Anforderungen wird in mehrere Bins unterteilt, z.B. in 9 Bins, d.h. in jeder Zelle wird ein Gradientenhistogramm mit 9 Richtungen erfasst, wobei jeder Bin 20° abdeckt. Es wird die Amplitude (wie oben berechnet) in den Bin eingefügt. Die Summe der Amplituden im letzten Bin ist die vertikale Achse des Histogramms. Die horizontale Achse ist der Wertebereich des Bin. In diesem Beispiel werden die Zahlen (0,8) verwendet.

Verfahren zum Einfügen von Werten:

Wenn ein Pixel eine Amplitude von 80 und eine Richtung von 20 Grad hat, wird der Wert in den blauen Bereich der Tabelle 1 eingefügt:

(Tabelle 1)

Wenn die Amplitude 80 und die Richtung 10 Grad beträgt, werden sie jeweils in den blauen Bereich der Tabelle 2 eingefügt:

(Tabelle 2)

Wenn die Amplitude 60 und die Richtung 165 Grad beträgt, werden sie jeweils in den blauen Bereich der Tabelle 3 eingefügt (die Richtungen 180° und 0° sind identisch, daher wird die Amplitude entsprechend 1:3 jeweils in zwei Bin eingefügt):

(Tabelle 3)

Die obige Tabelle 1 beschreibt das Einfügeverfahren für Richtungswerte, die genau den Bin-Werten entsprechen. Tabelle 2 beschreibt das Verfahren zum Einfügen von Richtungswerten zwischen zwei Bin-Werten. Tabelle 3 beschreibt das Einfügeverfahren für Richtungswerte, die größer sind als der maximale Bin-Wert. Dem Prinzip der drei Verfahren entsprechend wird pro Zelle als Einheit gerechnet. Die Amplitude aller Pixel in einer Zelle wird nach dem Durchlaufen summiert. Zum Beispiel haben wir oben zwei Amplitudenwerte an der Position von Bin 0 erhalten, die 40 bzw. 15 betragen. Das Histogramm von Bin 0 summiert sich bisher folglich zu 55 auf. Analog wird die Amplitude von Bin 1-8 jeder Zelle aufsummiert. Schließlich erhalten wir ein Histogramm ähnlich dem folgenden (Abbildung 8), der X-Wert gibt die Gradientenrichtung und der Y-Wert die Gradientenamplitude an:

Abbildung 8: Beispiel eines Gradientenhistogramms. Die horizontale Achse gibt die Bin-Nummer und die vertikale Achse die berechnete Amplitude an. Die entsprechenden Zahlenwerte auf der vertikalen Achse dieser Abbildung dienen nur der Veranschaulichung. Werden beispielsweise die Bin1-Amplituden in den drei Tabellen in der obigen Abbildung summiert, erhält man als Endergebnis 80 + 40 + 0 = 120. Der Wert der Ordinate des Histogramms beträgt 120. Bei einer Weiterführung der Rechnung summiert sich der Wert von Bin1 weiter.

Experimentell wurde gezeigt, dass bei Verwendung von 9 Bins für die Zielerkennung das unidirektionale Einfügeverfahren die besten Ergebnisse liefert.

2. Gerichtet (0, 2π)

Vor dem Richtungswert wird ein Plus- oder Minuszeichen ergänzt. Wenn auch 9 Bin-Werte definiert sind, ist der jedem Bin zugewiesene Winkelbereich (0, π/9°). Beispielsweise wird der zweite Bin bei einem positiven Wert in einen Bin im Bereich von 20-40 (blauer Sektorbereich) und bei einem negativen Wert in einen Bin im Bereich von 200-220 (blauer Sektorbereich) eingefügt (Abbildung 9).

Abbildung 9: Beim gerichteten Einfügeverfahren repräsentiert jeder Sektorbereich einen Winkelbereichswert einer Bin-Abdeckung. Rot ist Bin Nr. 1 mit einer Abdeckung von 0-20°. Bei einer Kennzeichnung im Uhrzeigersinn liegt der Endpunkt im grünen Bereich bei 340-360°. Der blaue Bereich ist der Bin-Wert beider entsprechender Richtungen.

Kurze Einführung in die Arbeitsprozesse der SVM:

SVM (Support Vector Machine) bezeichnet eine Stützvektormaschine. Im Raum werden zwei Kategorien durch eine Hyperebene getrennt. Ein zweidimensionaler Raum kann einfach erfasst werden und das Feststellen von y und y erfüllt:

Der Wert y bestimmt, ob die Stichprobe positiv oder negativ ist. Um die optimale Hyperebene zu bestimmen, werden hier jedoch Stützvektoren und maximale Intervalle vorgestellt. Das Ziel ist es, eine Hyperebene so einzuführen, dass zwischen den Punkten, die der Hyperebene am nächsten liegen, ein maximaler Abstand besteht (Abbildung 10). 

Abbildung 10 (Quelle: Wikipedia): Die rote Linie markiert die Hyperebene, und die Punkte auf den gepunkteten Linien auf beiden Seiten stellen die Stützvektoren dar. Es wird der w-Wert 1 (positiv) oder -1 (negativ) berechnet. Blaue Punkte zeigen positive Stichproben. Grüne Punkte stellen negative Stichproben dar. Das Ziel ist es, den w-Wert mit dem größten Abstand zwischen den gestrichelten Linien zu finden, da ein größerer Abstand ein besseres Ergebnis dieses Modells mit zwei Kategorien angibt.

Aufgrund der hohen Datenkomplexität in realen Situationen werden manchmal bei Bedarf Kernelfunktionen eingeführt.  Der Nutzen besteht in der Abbildung von hohen Dimensionen auf kleine Dimensionen und darin, die linearen undifferenzierbaren Daten (Abbildung 11) durch eine Hyperebene differenzierbar zu machen.

Abbildung 11: Die Punkte im roten Kreis und die blauen Punkte sind im zweidimensionalen Raum linear nicht differenzierbar. Daher muss jeder Punkt über eine Kernelfunktion auf ein hochdimensionales räumliches Koordinatensystem abgebildet werden. 

SVM ist rechenintensiv und erfordert ein zeitaufwändiges Training, da für jeden Punkt die Ähnlichkeit zwischen dem Punkt und allen anderen Punkten berechnet werden muss. Daher eignet sich SVM für das Training von binären Klassifizierungsmodellen mit einer kleinen Datenmenge. Bei mehreren Klassen werden mehrere Modelle normalerweise separat trainiert. Außerdem sind zwei Open-Source-Tools, die von Professoren der National Taiwan University entwickelt wurden, mittlerweile bei Wissenschaftlern sehr beliebt. Eines ist LibSVM. Das andere, das auf SVM basiert, ist das für große Datenmengen geeignete liblinear.

SVM ist gegenüber Parametern auch extrem empfindlich. Beim Training von libSVM oder LibLinearmuss auf Strafterme C und Gewichtungskoeffizienten w geachtet werden. Je höher die Strafterme C sind, desto besser ist der Klassifizierungseffekt des Trainingsprozesses. Wenn aber C zu groß wird, bewirkt das eine Überanpassung, d.h. die Klassifizierungsgenauigkeit der Trainingsprobe ist extrem hoch, die Testgenauigkeit ist jedoch extrem niedrig. Da es unvermeidlich ist, dass die Daten einige Punkte enthalten, die weit von der kumulierten Gruppe entfernt sind, gibt die Größe von C an, ob Sie bereit sind, auf diese Ausreißer zu verzichten. Je höher der Wert ist, desto niedriger ist die Bereitschaft, auf diese Ausreißer zu verzichten. Daher ist das Modell besonders konform beim Trainingsset, aber nicht beim Testset. W ist der Koeffizient, der die Gewichtung von positiven und negativen Testobjekten darstellt. Wenn mehr Zielobjekte erkannt werden sollen, muss die Gewichtung der positiven Tests erhöht werden. Dadurch wird aber auch die Falsch-Positiv-Rate (FP) besonders hoch sein. Umgekehrt wird durch Erhöhen der Gewichtung der negativen Tests die Falsch-Positiv-Rate (FP) gesteuert, dabei wird natürlich aber auch die Zielerkennungsrate (TP) niedriger sein.

Bei eigenen Experimenten hat der Autor festgestellt, dass bei 1 Million Daten und 1152 Dimensionsmerkmalen es unter dem Betriebssystem Windows 10 mit 2 CPUs und 60G internem Speicher 20 Minuten dauerte, um 18 Threads zu trainieren. Daher empfiehlt der Autor, beim Trainieren großer Daten die liblinear-Bibliothek zu verwenden oder den Speicher des Computers zu erweitern.

Vergleich und Zusammenfassung

Dieser Artikel konzentrierte sich auf die Analyse des Bereichs der Merkmalsberechnung bei der Fahrzeugerkennung und stellte kurz die Klassifizierungsstrategie der SVM vor. Es ist empfehlenswert, die HOG-Merkmale zur Fahrzeugerkennung, mehr als 1000 Dimensionsmerkmale und ein ungerichtetes Einfügeverfahren mit 9 Bin zu verwenden, und eine ungleichmäßige Merkmalsverteilung muss regularisiert werden. Bei einer SVM kann bei Bedarf eine Kernelfunktion ausgewählt werden. Wenn es erforderlich ist, kann die LibSVM-Bibliothek zum Trainieren von Modellen verwendet werden, die auf großen Datenmengen basiert.  Der Kernelfunktionsmechanismus der SVM löst effektiv das Problem der linearen Undifferenzierbarkeit, indem er einen niedrigdimensionalen Raum auf einen hochdimensionalen Raum abbildet, wobei die Berechnungskomplexität der SVM durch die Anzahl der Stützvektoren bestimmt wird. Glücklicherweise wird die endgültige Entscheidungsfunktion durch eine geringe Anzahl von Stützvektoren bestimmt. Die SVM hat auch ihre Grenzen. Ohne Verwendung der Open-Source-Bibliotheken LiBSVM/Liblinear ist es sehr schwierig, große Datenmengen allein mit der SVM zu verarbeiten, da die SVM Matrixberechnungen in den Berechnungsprozess einbezieht und die Anzahl der Zeilen und Spalten durch die Anzahl der Testobjekte bestimmt wird. Große Tests verbrauchen während der Berechnung viel Zeit und Platz. In der Praxis sollten die Vor- und Nachteile von HOG aus beiden Richtungen betrachtet werden. Nachfolgend eine Zusammenfassung seiner Vor- und Nachteile:

Vorteil: HOG führt die Erkennung mit lokalen Einheiten durch, wodurch lokale Forminformationen besser erfasst und Faktoren wie Beleuchtung und Farbe ignoriert werden können. Beispielsweise kann der Faktor Farbe des Fahrzeugs bei der Fahrzeugerkennung ignoriert werden. Dadurch werden die erforderlichen Merkmalsdimensionen reduziert. Die hohe Lichtempfindlichkeit ermöglicht eine Erkennung auch von verdeckten Fahrzeugteilen.

Nachteile: HOG kann mit Problemen bei der Abschirmung schlecht umgehen. Änderungen der Fahrzeugrichtung werden nur schwer erkannt. Aufgrund der Eigenschaften der Gradienten ist HOG relativ empfindlich gegenüber Rauschen. Daher ist es in der Praxis häufig erforderlich, das Rauschen durch eine Gaußsche Glättung zu entfernen, nachdem Block und Zelle in lokale Einheiten unterteilt wurden. Die Bestimmung der Merkmalsdimensionen (Bestimmung von Zelle, Block, Schrittweite) ist anspruchsvoll. In der Praxis ist es erforderlich, das Testdesign immer wieder zu überprüfen, um die optimale Lösung zu erhalten. 

Dies sind die Hauptinhalte dieses Artikels, und ich hoffe, dem Leser eine klare Vorstellung vermittelt zu haben. Obwohl die Kombination von SVM und HOG rechenintensiv ist, sind die Kosten dennoch gering. Das Training des Modells kann auch auf Basis einer CPU durchgeführt werden und wird von kleinen und mittleren Produktentwicklungsunternehmen bevorzugt, beispielsweise bei der Entwicklung und Lieferung von Kleingeräten wie Bordkameras. Unter der Voraussetzung, dass die Anwendbarkeit sichergestellt ist, trifft der preisliche Aspekt die Bedürfnisse von vielen.

Referenzen:

  1. https://blog.csdn.net/u011285477/article/details/50974230
  2. https://www.learnopencv.com/histogram-of-oriented-gradients/
  3. https://www.stat.purdue.edu/~panc/research/kernDescripOjReg/reference/2005CVPR_DalalTriggs_HoG_HumanDetection.pdf
  4. https://www.csie.ntu.edu.tw/~cjlin/libsvm/
  5. https://blog.csdn.net/u011448029/article/details/11709443

 



« Zurück


Wang Jing ist Algorithmus-Ingenieurin im Bereich des maschinellen Lernens und arbeitet derzeit im Bereich der Fahrzeug-Prüfung. Sie schreibt leidenschaftlich gerne Fachartikel. Mit ihren Artikeln möchte sie das Interesse der Leser an künstlicher Intelligenz wecken und mehr Fachleute inspirieren, sich der Kombination von KI mit Cloud-Technologie und Big Data zu widmen, um das Leben sicher und bequem zu machen.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen