Optimierungsprobleme sind allgegenwärtig in der Natur aber auch in der Wirtschaft, dem Ingenieurwesen usw. Sie stellen erhebliche Herausforderungen bei der Suche nach effizienten Lösungen dar, z.B. für Materialdesign oder zum Finden der kürzesten Verbindung. Die Komplexität dieser Probleme liegt oft daran, dass es mehrer Optimierungsziele gibt und dass die Zielfunktion einer verrauschten hochdimensionalen Landschaften gleicht. Die Optimierung dieser Probleme wird besonders schwierig, wenn die Bewertung von Zielfunktionen rechnerisch aufwendig ist, was dazu führt, dass die Berechnungsprozesse übermäßig viel Zeit und/oder Energie verbrauchen. "Active learning schemes" (ALS) erwiesen sich als vielversprechender Ansatz, zur Lösung dieser Herausforderungen. Das ALS funktioniert, indem es iterativ ein Machine Learning Ersatz-Modell (eng. surrogate model) anlernt, um die Zielfunktion basierend auf neuen Datenpunkten, die es selbst ausgewählt und erkundet hat, zu approximieren. Dadurch wird der Optimierungsprozess mit jeder Iteration verbessert. Diese Arbeit untersucht die Wirksamkeit und Effizienz des ALS bei der Lösung komplexer Optimierungsaufgaben bei Einzel- und Mehrziel-Problemen. Im Zuge dieser Arbeit wurde ein modulares Python-Framework entwickelt, um Experimente mit einem ALS in verschiedenen Konfigurationen durchzuführen. Der genetische Algorithmus NSGA-II dient als Maßstab, mit dem die Performance des ALS verglichen wird. Beide Lösungsansätze wurden in einer vergleichenden Parameterstudie untersucht. Diese Studie wurde mit verschiedenen Stichprobengrößen und vier verschiedenen Stichprobenverfahren bei sechs Optimierungstestfunktionen durchgeführt. Die Forschung ergibt, dass das ALS in simplen Problemstellungen leicht etwa 4-10 Mal effektiver als der genetische Algorithmus ist. Jedoch führt seine begrenzte Fähigkeit, komplexe, verrauschte Funktionslandschaften zu erkunden, zu suboptimalen Lösungen. Die Ergebnisse zeigen, dass das ALS zwar viele Pareto-optimale Lösungen bei mehrzieligen Funktionen findet, es jedoch nur begrenzt fähig ist, das gesamte Pareto-Set gleichmäßig zu erkunden. Zusätzlich legen die Ergebnisse nahe, dass verschiedene Stichprobenverfahren nur eine untergeordnete Rolle in der Gesamteffizienz des Lösungsansatzes spielen (sowohl für den genetischen Algorithmus als auch für das ALS). Daher präsentiert diese Arbeit mehrere Verbesserungsvorschläge, einschließlich der Integration von Unsicherheitsmaßen wie der Standardabweichung durch Gauß-Prozess Regressoren als Ersatzmodell und der Anwendung von Mini-Batching-Techniken im Modelltrainingsprozess. Weitere Verfeinerungen beinhalten beispielsweise einen Mechanismus zur Vermeidung der möglichen Neubewertung von Datenpunkten, welche in unmittelbarer Nähe von bereits bekannten Punkten liegen. Diese Verbesserungen zielen darauf ab, die Erkundungsfähigkeit des ALS zu erweitern und seine Leistung in komplexen, ressourcenintensiven Optimierungsproblemen zu verbessern. Zusammenfassend trägt diese Arbeit zum laufenden Diskurs in der Optimierungsforschung bei, indem sie die Fähigkeiten des ALS bei ein- und mehrzieliger Optimierung kritisch untersucht und potenzielle Wege für seine Verbesserung vorschlägt. Die präsentierten Ergebnisse dienen als Proof-of-Concept und bahnen den Weg für umfassendere und statistisch signifikante zukünftige Studien in diesem Bereich.
Optimization problems are ubiquitous in various fields such as nature, economics, engineering, etc., presenting significant challenges in finding efficient solutions, i.e., for material design or shortest pathways. The complexity of these problems often lies in their multi-objective nature and the presence of noisy, high-dimensional landscapes. The optimization of those problems becomes remarkably tough if the evaluation of objective functions is computationally expensive leading the calculation processes to consume exceedingly high amounts of time and/or energy. Active learning schemes (ALS) have emerged as a promising approach to address these challenges. The ALS operates by iteratively refining a machine learning surrogate model to approximate the objective function based on new data points proposed to explore, thereby enhancing the performance of the optimization process. This thesis examines the effectiveness and efficiency of the ALS in solving complex optimization tasks on single- and multi-objective problems. A modular Python framework was developed to conduct experiments on an active learning scheme with various configurations. The genetic algorithm NSGA-II serves as a benchmark against which the performance of the ALS is compared. Both solving approaches were inspected in a comparative parameter study. This study was set up with different sample sizes and four different sampling methods on six optimization test functions. The research finds that the ALS is easily about 4-10 times more effective than the genetic algorithm in simple environments. However, its limited ability to explore complex, noisy landscapes leads to suboptimal solutions. The results reveal that while the ALS finds plenty of Pareto optimal solutions in multi-objective functions, it only has limited capacity to adequately explore the whole Pareto set. Additionally, the findings suggest that different sampling methods only play a minor role in the overall efficiency of both solving approaches. Hence, to address these shortcomings, the thesis proposes several improvements, including the integration of uncertainty measures like standard deviation through Gaussian Process regressors as surrogate model and the application of mini-batching techniques in the model training process. Other refinements include, i.e., a mechanism to prevent the potential re-evaluation of data points close to already known ones. These enhancements aim to broaden the ALS’s exploration capability and improve its performance in complex, resource-demanding optimization problems. In summary, this thesis contributes to the ongoing discourse in optimization research by critically examining the capabilities of the active learning scheme in single- and multi-objective optimization and proposing potential pathways for its improvement. The findings serve as a proof-of-concept, paving the way for more comprehensive and statistically significant future studies in this domain.
Optimierungsprobleme sind allgegenwärtig in der Natur aber auch in der Wirtschaft, dem Ingenieurwesen usw. Sie stellen erhebliche Herausforderungen bei der Suche nach effizienten Lösungen dar, z.B. für Materialdesign oder zum Finden der kürzesten Verbindung. Die Komplexität dieser Probleme liegt oft daran, dass es mehrer Optimierungsziele gibt und dass die Zielfunktion einer verrauschten hochdimensionalen Landschaften gleicht. Die Optimierung dieser Probleme wird besonders schwierig, wenn die Bewertung von Zielfunktionen rechnerisch aufwendig ist, was dazu führt, dass die Berechnungsprozesse übermäßig viel Zeit und/oder Energie verbrauchen. "Active learning schemes" (ALS) erwiesen sich als vielversprechender Ansatz, zur Lösung dieser Herausforderungen. Das ALS funktioniert, indem es iterativ ein Machine Learning Ersatz-Modell (eng. surrogate model) anlernt, um die Zielfunktion basierend auf neuen Datenpunkten, die es selbst ausgewählt und erkundet hat, zu approximieren. Dadurch wird der Optimierungsprozess mit jeder Iteration verbessert. Diese Arbeit untersucht die Wirksamkeit und Effizienz des ALS bei der Lösung komplexer Optimierungsaufgaben bei Einzel- und Mehrziel-Problemen. Im Zuge dieser Arbeit wurde ein modulares Python-Framework entwickelt, um Experimente mit einem ALS in verschiedenen Konfigurationen durchzuführen. Der genetische Algorithmus NSGA-II dient als Maßstab, mit dem die Performance des ALS verglichen wird. Beide Lösungsansätze wurden in einer vergleichenden Parameterstudie untersucht. Diese Studie wurde mit verschiedenen Stichprobengrößen und vier verschiedenen Stichprobenverfahren bei sechs Optimierungstestfunktionen durchgeführt. Die Forschung ergibt, dass das ALS in simplen Problemstellungen leicht etwa 4-10 Mal effektiver als der genetische Algorithmus ist. Jedoch führt seine begrenzte Fähigkeit, komplexe, verrauschte Funktionslandschaften zu erkunden, zu suboptimalen Lösungen. Die Ergebnisse zeigen, dass das ALS zwar viele Pareto-optimale Lösungen bei mehrzieligen Funktionen findet, es jedoch nur begrenzt fähig ist, das gesamte Pareto-Set gleichmäßig zu erkunden. Zusätzlich legen die Ergebnisse nahe, dass verschiedene Stichprobenverfahren nur eine untergeordnete Rolle in der Gesamteffizienz des Lösungsansatzes spielen (sowohl für den genetischen Algorithmus als auch für das ALS). Daher präsentiert diese Arbeit mehrere Verbesserungsvorschläge, einschließlich der Integration von Unsicherheitsmaßen wie der Standardabweichung durch Gauß-Prozess Regressoren als Ersatzmodell und der Anwendung von Mini-Batching-Techniken im Modelltrainingsprozess. Weitere Verfeinerungen beinhalten beispielsweise einen Mechanismus zur Vermeidung der möglichen Neubewertung von Datenpunkten, welche in unmittelbarer Nähe von bereits bekannten Punkten liegen. Diese Verbesserungen zielen darauf ab, die Erkundungsfähigkeit des ALS zu erweitern und seine Leistung in komplexen, ressourcenintensiven Optimierungsproblemen zu verbessern. Zusammenfassend trägt diese Arbeit zum laufenden Diskurs in der Optimierungsforschung bei, indem sie die Fähigkeiten des ALS bei ein- und mehrzieliger Optimierung kritisch untersucht und potenzielle Wege für seine Verbesserung vorschlägt. Die präsentierten Ergebnisse dienen als Proof-of-Concept und bahnen den Weg für umfassendere und statistisch signifikante zukünftige Studien in diesem Bereich.
Optimization problems are ubiquitous in various fields such as nature, economics, engineering, etc., presenting significant challenges in finding efficient solutions, i.e., for material design or shortest pathways. The complexity of these problems often lies in their multi-objective nature and the presence of noisy, high-dimensional landscapes. The optimization of those problems becomes remarkably tough if the evaluation of objective functions is computationally expensive leading the calculation processes to consume exceedingly high amounts of time and/or energy. Active learning schemes (ALS) have emerged as a promising approach to address these challenges. The ALS operates by iteratively refining a machine learning surrogate model to approximate the objective function based on new data points proposed to explore, thereby enhancing the performance of the optimization process. This thesis examines the effectiveness and efficiency of the ALS in solving complex optimization tasks on single- and multi-objective problems. A modular Python framework was developed to conduct experiments on an active learning scheme with various configurations. The genetic algorithm NSGA-II serves as a benchmark against which the performance of the ALS is compared. Both solving approaches were inspected in a comparative parameter study. This study was set up with different sample sizes and four different sampling methods on six optimization test functions. The research finds that the ALS is easily about 4-10 times more effective than the genetic algorithm in simple environments. However, its limited ability to explore complex, noisy landscapes leads to suboptimal solutions. The results reveal that while the ALS finds plenty of Pareto optimal solutions in multi-objective functions, it only has limited capacity to adequately explore the whole Pareto set. Additionally, the findings suggest that different sampling methods only play a minor role in the overall efficiency of both solving approaches. Hence, to address these shortcomings, the thesis proposes several improvements, including the integration of uncertainty measures like standard deviation through Gaussian Process regressors as surrogate model and the application of mini-batching techniques in the model training process. Other refinements include, i.e., a mechanism to prevent the potential re-evaluation of data points close to already known ones. These enhancements aim to broaden the ALS’s exploration capability and improve its performance in complex, resource-demanding optimization problems. In summary, this thesis contributes to the ongoing discourse in optimization research by critically examining the capabilities of the active learning scheme in single- and multi-objective optimization and proposing potential pathways for its improvement. The findings serve as a proof-of-concept, paving the way for more comprehensive and statistically significant future studies in this domain.