antriebstechnik.de
Aufrufe
vor 4 Monaten

antriebstechnik 10/2023

  • Text
  • Schnell
  • Kupplungen
  • Hohen
  • Anforderungen
  • Komponenten
  • Motoren
  • Anwendungen
  • Getriebe
  • Unternehmen
  • Antriebstechnik
antriebstechnik 10/2023

FORSCHUNG UND

FORSCHUNG UND ENTWICKLUNG Testdatensatzes für den Vergleich verwendet. Die Initialisierung der Gewichte Θ erfolgt bei den Modellen zufällig. BEWERTUNGSMETRIKEN Reinke et al. haben gezeigt, dass die Wahl der Bewertungsmetrik einen Einfluss auf die Rangfolge bei der Bewertung von Modellen hat [8]. Folglich werden für die Beurteilung der Modelle mehrere Metriken berücksichtigt, um eine tiefgründige Bewertung der Modelle zu erhalten. Die berücksichtigten Metriken sind der mittlere quadratische Fehler (MSE), mittlere absolute prozentuale Fehler (MAPE), Wurzel des mittleren quadratischen Fehlers (RMSE), mittlere absolute Fehler (MAE) und mittlere prozentuale Fehler (MPE). Die Bestimmung der einzelnen Metriken ist in Tabelle 04 aufgeführt. Bei allen Metriken stellt im Vergleich ein Wert näher Null die bessere Regression dar. ERGEBNISSE Das folgende Kapitel stellt die Ergebnisse der einzelnen Schritte zur Entwicklung des Regressionsmodells dar. Zunächst erfolgt dafür die Evaluierung der verschiedenen Zusammensetzungen der Datensätze. Anschließend werden die Hyperparameter des Modells optimiert und die Erkenntnisse daraus diskutiert. Abschließend wird das finale Regressionsmodell bezüglich der Berechnungsgeschwindigkeit und -genauigkeiten betrachtet. Insbesondere die Linienlast hat einen sehr großen Wertebereich mit f = 10 –5 bis 3 . 10 3 N/mm, wobei bei kleinen Lasten die Nachgiebigkeit stark steigt. Diese kleinen Lasten treten am Rand des Kontaktgebietes auf, während die größeren Linienlasten mittig im Kontaktgebiet liegen. Um die Größenordnungen des Wertebereiches zu verringern, wird der Ansatz erprobt, vor der Normalisierung, den Logarithmus zur Basis zehn der Linienlast zu bilden [9]. Die Hyperparameter des Modells sind in Tabelle 05 aufgeführt und es werden vier Modelle für die Evaluierung trainiert. Der verwendete Datensatz ist der HYBR mit 10 6 Datenpaaren. Durch diese zusätzliche Vorverarbeitung kann die Regressionsgüte des Modells verbessert werden. RMSE, MAE und MSE sind hier etwas besser, während MPE und MAPE hingegen ohne Logarithmieren geringer sind. Allerdings zeigt sich bei genauer Betrachtung einzelner Ergebnisse, dass bei sehr kleinen Lasten die Regression mit Logarithmieren deutlich genauer ist. Dies motiviert die Wahl des zusätzlichen Vorverarbeitungsschritts. Die Mediane der einzelnen Metriken aus den Modellen sind in Tabelle 06 aufgeführt. Ergänzend erfolgt die Untersuchung der Datensätze (mit der logarithmierten Linienlast) RAND, GEOM und HYBR, indem Modelle mit den Hyperparametern aus Tabelle 05 (Struktur Datensatz) mit den jeweiligen Datensätzen trainiert werden. Der Vergleich der Modelle miteinander wird anhand der Testdaten im Bereich II durchgeführt. Das Training erfolgt hier mit 5 . 10 5 Tupel. Ziel ist dabei eine gute Zusammensetzung des Datensatzes zu bestimmen. Die Ergebnisse fasst Tabelle 07 zusammen. Auffällig ist, dass der RAND-Datensatz nur bei dem MPE nicht an letzter Stelle steht und folglich als ungünstig angesehen wird. Die Metriken von GEOM und HYBR sind vergleichbar, wobei der MPE bei GEOM im Vergleich zu RAND und HYBR sehr gut ist. An dieser Stelle ist zu beachten, dass bei dem MPE positive und negative Abweichungen sich ausgleichen können. In den anderen Fehlermetriken schneiden GEOM und HYBR vergleichbar ab. Abschließend wird der HYBR Datensatz bevorzugt, auf Grund der oben genannten Motivation und der guten Ergebnisse. Weiterhin sind die Hyperparameter des Modells zu optimieren. Dafür wurden die in Tabelle 03 beschriebenen Parameter vollfaktoriell variiert. Die Ergebnisse sind in Bild 03 grafisch für die Fehlermetriken RMSE, MSE, MAPE und MAE über der Berechnungsgeschwindigkeit dargestellt. Die Berechnungsgeschwindigkeit je Nachgiebigkeit wird mit 670.000 Datenpunkten ermittelt und gemittelt. Diese Zeit kann sich mit der zur Verfügung stehenden Rechenleistung ändern. Bild 03 zeigt, dass sich eine Pareto-Front ausbildet, welche aus dem Zielkonflikt von Berechnungsgeschwindigkeit und -genauigkeit resultiert. Die Front wird durch eine Linie für jede Aktivierungsfunktion dargestellt. Dabei wird deutlich, dass Modelle mit Sigmoid- und Reclin-Aktivierung deutlich performanter in MAE, RMSE und MAPE Tabelle 04: Skalare Bewertungsmetriken der Regressionsmodelle. m ist die Anzahl an Datenpunkten, ŷ ist die Zielgröße der Regression und y die vorhergesagte Größe mm Formel 1 ∑(yŷ − yy)2 mm MSE MAPE RMSE MAE MPE ii=1 mm mm − yy) − yy) mm mm 100 100 ∑ |(yŷ | 1 ∑ |(yŷ | 1 yŷ yŷ ∑ √(yŷ ∑− yy)2 √(yŷ − yy)2 mm mm mm mm ii=1 ii=1 ii=1 ii=1 mm mm mm mm 1 1 100 ∑|yŷ − yy| mm mm ∑ (yŷ 100 − yy) ∑|yŷ − yy| mm mmyŷ ∑ Wertebereich [0 inf] [0 inf] [0 inf] [0 inf] [-inf inf] min min min min 0 Einheit N 2 /mm 2 % N/mm N/mm % ii=1 ii=1 ii=1 ii=1 (yŷ − yy) yŷ Tabelle 05: 5 Hyperparameter der verwendeten Modelle. Die Aktivierungsfunktion der Ausgabeschicht ist die Identitätsfunktion y = x. 80 % des Trainingsdatensatzes werden für das Training verwendet und 20 % für die Validierung, die Testdaten entsprechen den in Datagrundlage beschrieben Datensatz im Bereich II Name Struktur Verdeckte Schichten Neuronen je Schicht Optimierer Optimierungsziel Aktivierungsfunktion Fehlerfunktion Datentraining Test F 2 20, 20 Sigmoid TrainSCG MSE 10^6 1000 Struktur Datensatz 2 25, 15 Sigmoid TrainSCG MSE 5*10^5 1000 OPTIM 2 20, 20 Sigmoid TrainSCG MSE 10^6 1000 Epochen 48 antriebstechnik 2023/10 www.antriebstechnik.de

FORSCHUNG UND ENTWICKLUNG sind als die Modelle mit Radbas-Aktivierung, wobei im direkten Vergleich von Sigmoid- und Reclin-Aktivierung die Netze der Sigmoid-Funktion i.d.R. besser abschneiden. Weiterhin zeigt sich, dass bei der Betrachtung des MSE, der Zielgröße des Trainings, die meisten Modelle ähnliche Ergebnisse liefern. Vorwiegend separieren sich die Modelle hier durch die Berechnungsgeschwindigkeit, welche direkt aus der Modellgröße resultiert. Weiterhin ist die Berechnungsgeschwindigkeit stärker von der Modellgröße als von der Wahl der Aktivierungsfunktion abhängig. Zusammenfassend ist die Auswahl eines NN mit zwei Schichten und jeweils 20 Knoten und der Sigmoid-Aktivierung eine gute Wahl für die Lösung der vorliegenden Problemstellung. Eine genauere Untersuchung des Modells mit dem Testdatensatz aus den drei Bereichen ist in Bild 04 durch die Darstellung von der Vorhersage über den Zielwert gegeben. Folglich liegen gut regressierte Werte auf der Geraden d = d reg . Dabei sind die drei Fälle des Testdatensatzes farblich getrennt dargestellt. Aus Übersichtlichkeitsgründen sind zufällig 10 % der Daten ausgewählt und dargestellt. Im Bereich II ist die Regression mit einem MAPE von 2,82 % sehr überzeugend (vgl. Tabelle 07 OPTIM). Dabei zeigt Bild 04, dass bei Nachgiebigkeiten größer als d = 0,5 . 10 –4 ) N/mm die Abweichungen steigen. Bei diesen Nachgiebigkeiten ist die Streckenlast kleiner als f = 1 . 10 –3 N/mm. Somit sind die Abweichungen an dieser Stelle weniger bedeutend, da der Einfluss auf die Lastverteilung auf Grund der kleinen Linienlast gering ist. Bild 04 illustriert weiterhin, dass das Modell in den Bereichen I und III keine zufriedenstellenden Ergebnisse liefert, bei konkav-konvexen Paarungen (Bereich I) wird dies besonders deutlich. Hier liegen die Vorhersagen außerhalb des sinnvollen Wertebereiches. Folglich ist das Modell für diesen Wertebereich unzureichend. Abschließend wird die Berechnungsgeschwindigkeit der bisherigen Methode mit der Regression verglichen. Dabei werden verschieden Anzahlen an Datenpunkten betrachtet, um die Einflüsse von parallelisierten Aufrufen, Speicheralokierung und Weiteren zu berücksichtigen. Die Berechnungsgeschwindigkeit ist 20- mal höher als die der Ausgangsmethode. Wie Bild 03 verdeutlicht könnte die Berechnungsgeschwindigkeit weiter erhöht werden, indem kleinere Modelle verwendet werden, wodurch wiederum die Regressionsgüte sinkt. ZUSAMMENFASSUNG Für die Einführung des BECAL-Kraftelementes in ein Mehrkörper-System-Simulation ist eine schnelle Berechnung der Lastverteilung erforderlich. Ein zeitintensiver Aspekt dieser Lösung ist die Bestimmung der nichtlinearen lokalen Kontaktnachgiebigkeiten. Hier wurde dafür ein neuer Ansatz zur schnellen Berechnung dieser vorgestellt. Die dafür verwendete Methode ist eine Regression mittels flacher künstlicher neuronaler Netze. Zielsetzung war, die Berechnungsgeschwindigkeit zu erhöhen und gleichzeitig eine qualitativ gleichwerte Lösung der Kontaktnachgiebigkeiten zu erhalten. Durch die Regression konnte die Berechnungsgeschwindigkeit um das 20-fache im Vergleich zur vorher implementierten Methode in BECAL erhöht werden. Gleichzeitig ist dabei die Regressionsgüte des Modells bei einem konvexen Zahnkontakt sehr hoch. Ein Beispiel hierfür ist der mittlere absolute prozentuale Fehler mit 2,82 %. Erwähnt sei hier, dass die Regression Grenzen in der Bestimmung der Kontaktnachgiebigkeiten bei konkav-konvexen Paarungen sowie bei sehr großen Krümmungsradien aufweist. Diese Limitierungen gilt es in weiteren Untersuchungen zu reduzieren. Bilder: TU Dresden www.tu-dresden.de Tabelle 06: Metriken der Modelle für den Testdatensatz im Bereich II Median RMSE MAE MAPE MPE MSE log 10 ( f) 1.12e-05 7.52e-06 18.7 15.8 1.26e-10 f 04 Darstellung der Regressionsgüte des Modells über die Zielwerte der Regression anhand von zufällig gewählten 10 % des Testdatensatzes mit den drei Bereichen. Richtige regressierte Nachgiebigkeiten liegen auf der Geraden d = d reg. 1.18e-05 7.58e-06 18.1 12.2 1.40e-10 Tabelle 07: Median der Fehlermetriken der Modelle für den Testdatensatz im Bereich II Median RMSE MAE MAPE MPE MSE RAND 4.35e-05 4.10e-05 1.86e+02 65.1 1.89e-09 GEOM 2.57e-05 2.22e-05 87.8 -14.1 6.60e-10 HYBR 2.37e-05 2.25e-05 94.4 83.40 5.63e-10 OPTIM 2.76e-06 1.09e-06 2.82 0.49 7.62e-12 Literaturverzeichnis: [1] Wagner, W. ; Schlecht, B.: FVA-Vorhaben 223 XXII „Verzahnungs-Co-Simulation mit BECAL“. Frankfurt am Main, 2023. [2] Hornik, K. ; Stinchcombe, M. ; White, H.: Multilayer feedforward networks are universal approximators. In: Neural networks (1989), Heft 2, 359--366. [3] Zaki, M. J.; Meira, W.: Data mining and machine learning fundamental concepts and algorithms: Second edition. Cambridge: Cambridge University Press, 2020. [4] Ertel, W.: Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung. Wiesbaden: Springer Fachmedien Wiesbaden, 2013. [5] Alpaydin, E.: Maschinelles Lernen, 2., erweiterte Aufl, 2019. [6] Goodfellow, I.; Bengio, Y.; Courville, A.: Deep Learning: MIT Press, 2016. [7] Linke, H.: Stirnradverzahnung: Berechnung - Werkstoffe - Fertigung. 2. Auflage. München, Wien: Hanser, 2010. [8] Reinke, A., et al.: Understanding metric-related pitfalls in image analysis validation. [9] Webber, J. B. W.: A bi-symmetric log transformation for wide-range data. In: MEASUREMENT SCIENCE AND TECHNOLOGY (2013), Heft 24. www.antriebstechnik.de antriebstechnik 2023/10 49

Erfolgreich kopiert!