You are here: University of Vienna PHAIDRA Detail o:2000152
Title (eng)
Extrapolation of quantum time series
Author
Yoonjeong Shin
Adviser
Časlav Brukner
Assessor
Časlav Brukner
Abstract (deu)
Eines der Hauptziele der Physik ist es, anhand der aktuell verfügbaren Informationen vorherzusagen, wie eine physikalische Größe von Interesse in der Zukunft aussehen wird. In diesem Sinne steht die Extrapolation im Zusammenhang mit Physik. Im Bereich der numerischen Analyse bedeutet Extrapolation eine Methode, ein gegebener Datensatz zu erweitern und einen Wert über den Bereich hinaus zu schätzen. In dieser Studie beschränken wir unseren Fokus auf Hilbert-Schmidt (HS)-Observablen und versuchen, deren Zeitmittelwerte zu extrapolieren. Zu diesem Zweck entwickeln wir zwei mögliche Szenarien und zwei „HS-Extrapolationsfunktionen“, die auf Superoszillationen bzw. McLaurin-Expansion basieren. Während wir versuchen, den mit der Extrapolation verbundenen Fehler zu minimieren, stellen wir fest, dass beide Szenarien auf eine konvexe Optimierung über Extrapolationsfunktionen mit minimaler l1-Norm hinauslaufen. Zur Vereinfachung wird ein funktionaler Ansatz in Form einer Reihe gewählt und das Optimierungsproblem hinsichtlich seines Koeffizientenvektors mithilfe der Softwarepakete MOSEK und CVX gelöst. Bemerkenswerterweise prägen „spärliche Koeffizienten“ die optimale Extrapolationsfunktionen, d. h. die Funktionen haben nur wenige Komponenten ungleich Null. In diesem Zusammenhang untersuchen wir zunächst, wie sich ihre Indizes mit dem Schätzfehler δ ändern, was uns eine Gruppierung ermöglicht. Gleichzeitig schließen wir aus der Tatsache, dass die Anzahl der dünnen Koeffizienten zunimmt, wenn δ abnimmt, dass der Koeffizientenvektor größtenteils Komponenten ungleich Null aufweist, wenn δ sich Null annähert. Andererseits zeigen lineare Anpassungsfunktionen an Werte jeder Gruppe, dass ihre Werte mit hoher Genauigkeit vorhergesagt werden können. Zuletzt erweitern wir den Ansatz auf einen zukünftigen Zeitpunkt τ, indem wir die gleichen Schritte in Bezug auf τ wiederholen. Während dieses Prozesses wird eine neue Indexgruppe entdeckt, die unser Vertrauen in die Schlussfolgerung stärkt. Anschließend wenden wir uns dem Fehlermodell zu, das angibt, wie zuverlässig jeder Punkt in der Zeitreihe ist. Um die Entsprechung zwischen Extrapolationsfunktion und Fehlermodellen herauszufinden, formulieren wir das ursprüngliche Optimierungsproblem basierend auf seiner Dualität neu und betrachten drei Extrapolationsfunktionen: Lagrange-Polynome und die beiden oben erwähnten HS Extrapolationsfunktionen. Das umformulierte Problem nimmt als Zielfunktion die Dualitätslücke an, die als Indikator für die Optimalität einer gegebenen Funktion mit dem Fehlermodell dient. Dabei vergleichen wir die Optimalität der Kandidatenfunktionen anhand ihrer optimalen Werte. Es stellt sich heraus, dass keine der betrachteten Funktionen für irgendein Fehlermodell optimal ist. Sie sind jedoch alle nahezu optimal für das Null-Fehler-Modell.
Abstract (eng)
It is one of the primary goals of physics to predict what a physical quantity of interest is going to be like in the future based on currently available information. In this sense, extrapolation is along the lines of physics. In the field of numerical analysis, extrapolation refers to a method to extend a given set of data points and estimate a value beyond the range. In this study, narrowing down our focus to Hilbert-Schmidt (HS) observables, we try to extrapolate their time averages. To this end, we come up with two possible scenarios and two ‘HS extrapolation functions’, based on superoscillations and McLaurin expansion, respectively. While trying to minimize the error associated with the extrapolation, we find that both scenarios boil down to a convex optimization over extrapolation functions with minimum l1 norm. For the sake of simplicity, a functional ansatz in the form of a series is adopted and the optimization problem is solved with respect to its coefficient vector by utilizing the software packages named Mosek and CVX. Remarkably, optimal extrapolation functions feature ‘sparse coefficients’, namely, only few non-zero components. In this regard, we first study how their indices change with the estimation error δ, which allows us to group them. At the same time, from the fact that the number of sparse coefficients increases as δ decreases, we deduce that the coefficient vector ends up with mostly non-zero components as δ approximates zero. On the other hand, linear fit functions to values of each group reveal that their values can be predicted with high accuracy. Lastly, we extend the ansatz to a future time point τ, by repeating the same steps with respect to τ. During this process, a new index group is discovered, which strengthens our confidence in the deduction. Afterwards, we turn our attention to the error model, which indicates how reliable each point in the time series is. In order to figure out the correspondence between extrapolation function and error models, we reformulate the original optimization problem based on its duality and consider three extrapolation functions: Lagrange polynomials and the two HS extrapolation functions mentioned above. The recast problem takes as its objective function the duality gap, which serves as an indicator of the optimality of a given function with the error model. We thereby compare the optimality of the candidate functions based on their optimal values. It turns out that none of the considered functions is optimal for any error model. However, they are all close to optimal for the zero-error model.
Keywords (deu)
Numerische AnalyseExtrapolationMatrixzustandsnäherungHilbert-Schmidt-ObservableKonvexe OptimierungCVXMosek
Keywords (eng)
Numerical analysisExtrapolationMatrix state approximationHilbert-Schmidt observablesConvex optimizationCVXMosek
Subject (deu)
Type (deu)
Persistent identifier
https://phaidra.univie.ac.at/o:2000152
rdau:P60550 (deu)
v, 78 Seiten, Seite 68-70 : Illustrationen
Number of pages
90
Association (deu)
Members (1)
Title (eng)
Extrapolation of quantum time series
Author
Yoonjeong Shin
Abstract (deu)
Eines der Hauptziele der Physik ist es, anhand der aktuell verfügbaren Informationen vorherzusagen, wie eine physikalische Größe von Interesse in der Zukunft aussehen wird. In diesem Sinne steht die Extrapolation im Zusammenhang mit Physik. Im Bereich der numerischen Analyse bedeutet Extrapolation eine Methode, ein gegebener Datensatz zu erweitern und einen Wert über den Bereich hinaus zu schätzen. In dieser Studie beschränken wir unseren Fokus auf Hilbert-Schmidt (HS)-Observablen und versuchen, deren Zeitmittelwerte zu extrapolieren. Zu diesem Zweck entwickeln wir zwei mögliche Szenarien und zwei „HS-Extrapolationsfunktionen“, die auf Superoszillationen bzw. McLaurin-Expansion basieren. Während wir versuchen, den mit der Extrapolation verbundenen Fehler zu minimieren, stellen wir fest, dass beide Szenarien auf eine konvexe Optimierung über Extrapolationsfunktionen mit minimaler l1-Norm hinauslaufen. Zur Vereinfachung wird ein funktionaler Ansatz in Form einer Reihe gewählt und das Optimierungsproblem hinsichtlich seines Koeffizientenvektors mithilfe der Softwarepakete MOSEK und CVX gelöst. Bemerkenswerterweise prägen „spärliche Koeffizienten“ die optimale Extrapolationsfunktionen, d. h. die Funktionen haben nur wenige Komponenten ungleich Null. In diesem Zusammenhang untersuchen wir zunächst, wie sich ihre Indizes mit dem Schätzfehler δ ändern, was uns eine Gruppierung ermöglicht. Gleichzeitig schließen wir aus der Tatsache, dass die Anzahl der dünnen Koeffizienten zunimmt, wenn δ abnimmt, dass der Koeffizientenvektor größtenteils Komponenten ungleich Null aufweist, wenn δ sich Null annähert. Andererseits zeigen lineare Anpassungsfunktionen an Werte jeder Gruppe, dass ihre Werte mit hoher Genauigkeit vorhergesagt werden können. Zuletzt erweitern wir den Ansatz auf einen zukünftigen Zeitpunkt τ, indem wir die gleichen Schritte in Bezug auf τ wiederholen. Während dieses Prozesses wird eine neue Indexgruppe entdeckt, die unser Vertrauen in die Schlussfolgerung stärkt. Anschließend wenden wir uns dem Fehlermodell zu, das angibt, wie zuverlässig jeder Punkt in der Zeitreihe ist. Um die Entsprechung zwischen Extrapolationsfunktion und Fehlermodellen herauszufinden, formulieren wir das ursprüngliche Optimierungsproblem basierend auf seiner Dualität neu und betrachten drei Extrapolationsfunktionen: Lagrange-Polynome und die beiden oben erwähnten HS Extrapolationsfunktionen. Das umformulierte Problem nimmt als Zielfunktion die Dualitätslücke an, die als Indikator für die Optimalität einer gegebenen Funktion mit dem Fehlermodell dient. Dabei vergleichen wir die Optimalität der Kandidatenfunktionen anhand ihrer optimalen Werte. Es stellt sich heraus, dass keine der betrachteten Funktionen für irgendein Fehlermodell optimal ist. Sie sind jedoch alle nahezu optimal für das Null-Fehler-Modell.
Abstract (eng)
It is one of the primary goals of physics to predict what a physical quantity of interest is going to be like in the future based on currently available information. In this sense, extrapolation is along the lines of physics. In the field of numerical analysis, extrapolation refers to a method to extend a given set of data points and estimate a value beyond the range. In this study, narrowing down our focus to Hilbert-Schmidt (HS) observables, we try to extrapolate their time averages. To this end, we come up with two possible scenarios and two ‘HS extrapolation functions’, based on superoscillations and McLaurin expansion, respectively. While trying to minimize the error associated with the extrapolation, we find that both scenarios boil down to a convex optimization over extrapolation functions with minimum l1 norm. For the sake of simplicity, a functional ansatz in the form of a series is adopted and the optimization problem is solved with respect to its coefficient vector by utilizing the software packages named Mosek and CVX. Remarkably, optimal extrapolation functions feature ‘sparse coefficients’, namely, only few non-zero components. In this regard, we first study how their indices change with the estimation error δ, which allows us to group them. At the same time, from the fact that the number of sparse coefficients increases as δ decreases, we deduce that the coefficient vector ends up with mostly non-zero components as δ approximates zero. On the other hand, linear fit functions to values of each group reveal that their values can be predicted with high accuracy. Lastly, we extend the ansatz to a future time point τ, by repeating the same steps with respect to τ. During this process, a new index group is discovered, which strengthens our confidence in the deduction. Afterwards, we turn our attention to the error model, which indicates how reliable each point in the time series is. In order to figure out the correspondence between extrapolation function and error models, we reformulate the original optimization problem based on its duality and consider three extrapolation functions: Lagrange polynomials and the two HS extrapolation functions mentioned above. The recast problem takes as its objective function the duality gap, which serves as an indicator of the optimality of a given function with the error model. We thereby compare the optimality of the candidate functions based on their optimal values. It turns out that none of the considered functions is optimal for any error model. However, they are all close to optimal for the zero-error model.
Keywords (deu)
Numerische AnalyseExtrapolationMatrixzustandsnäherungHilbert-Schmidt-ObservableKonvexe OptimierungCVXMosek
Keywords (eng)
Numerical analysisExtrapolationMatrix state approximationHilbert-Schmidt observablesConvex optimizationCVXMosek
Subject (deu)
Type (deu)
Persistent identifier
https://phaidra.univie.ac.at/o:2037839
Number of pages
90
Association (deu)