Simulation and Optimization of Gas Transport Problems using Physics-Informed Neural Networks

Erik L. Strelow

Diese Arbeit befasst sich tiefgehend mit physikalisch informierten (physics-informed) neuronalen Netzwerken. Die Methode baut auf Deep Learning Techniken auf, wird im Allgemeinen zur Lösung von Differentialgleichungen verwendet und in dieser Arbeit auf Gastransportprobleme angewendet. Die vorliegende Bearbeitung dieses bislang wenig erforschten Themenfeldes leistet einen Beitrag zu einem besseren Verständnis der Methode und richtet seinen Fokus auf drei Schwerpunkte:

Zunächst beschäftigen wir uns mit den grundlegenden Eigenschaften. Hier beweisen wir einerseits Fehlerabschätzungen für ein lineares System von Transportgleichungen, die den Fehler der Approximation durch den Wert der Verlustfunktion beschränken. Die Abschätzungen zeigen allerdings auch, dass die Methode Probleme mit langen Zeitintervallen und hohen charakteristischen Geschwindigkeiten hat. Zum anderen wird aufgezeigt, wie die Methode effizient implementiert werden kann.

Neben der Standardmethode wurden zahlreiche Variationen von physikalisch informierten neuronalen Netzwerken entwickelt. Diese vergleichen wir miteinander und befassen uns mit dem zweiten Schwerpunkt, der Suche nach der effektivsten Trainingsstrategie. Hier führen wir umfangreiche numerische Tests durch, die verschiedene Architekturen von neuronalen Netzwerken, Optimierungsverfahren, Integrationsverfahren und Verfahren zur Wahl von Gewichten in der Verlustfunktion beinhalten.

In den Ergebnissen zeigt sich, dass für jedes Problem eine andere neuronale Netzwerk Architektur am besten geeignet ist. Als Optimierungsverfahren ist das Adam Verfahren mit der richtigen Lernrate und genügend Iterationen den anderen Verfahren überlegen. Bei den verschiedenen Integrationsverfahren lassen sich kaum Unterschiede erkennen und die verschiedenen Konvergenzraten der Verfahren übertragen sich nicht auf die Konvergenzrate von physikalisch informierten neuronalen Netzwerken. Dies zeigt ein kompliziertes Verhältnis zwischen Optimierungs- und Quadraturfehler und, dass der Fehler nicht beliebig reduziert werden kann.

Bei den Verfahren zur Wahl von Gewichten in der Verlustfunktion kann nur die aufwendige Zufallssuche die Genauigkeit verbessern. Abschließend betrachten und erweitern wir eine andere Formulierung der Verlustfunktion. Durch die Erweiterung lässt sich deren Genauigkeit steigern, aber die der ursprünglichen Verlustfunktion nicht übertreffen.

Als Drittes befassen wir uns mit der Lösung von optimalen Steuerungsproblemen durch physikalisch informierte neuronale Netzwerke. Hier betrachten wir einen direkten Ansatz und entwickeln einen neuen, indirekten Ansatz. Wir zeigen, dass der direkte Ansatz das optimale Steuerungsproblem nicht ausreichend widerspiegelt und unzulässige Lösungen berechnet. Der indirekte und auf der Adjungierten aufbauende Ansatz berechnet wiederum zulässige Lösungen, die auch die Zielfunktion minimieren. Wir verdeutlichen dies durch numerische Ergebnisse von zwei Testproblemen.

https://tuprints.ulb.tu-darmstadt.de/26769