You are here: University of Vienna PHAIDRA Detail o:1623034
Title (eng)
Estimation of sets with Barron boundaries under margin conditions
Parallel title (deu)
Einschätzung von Mengen mit Barron-Grenzen unter Randbedigungen
Author
Simon Noël-Marie Fourmann
Adviser
Philipp Christian Petersen
Assessor
Philipp Christian Petersen
Abstract (deu)
Beim maschinellen Lernen geht es häufig um die Konstruktion von Schranken für Probleme, bei denen das Ziel darin besteht, einen Klassifikator mit Funktionen einer bestimmten Klasse aus Stichprobenpunkten zu approximieren. Wie eng die Schranken sind, hängt von den Annahmen über den zu lernenden Klassifikator, die Verteilung der Daten und die Art der als Hypothesen verwendeten Funktionen ab. Ziel dieser Arbeit ist es, solche Schranken für Fälle abzuleiten, in denen der Klassifikator eine Menge mit Funktionen der Barron-Klasse als lokale Grenzen und ein neuronales Netz als Hypothesenmenge ist. Eine weitere und zentrale Annahme wird über die Verteilung der Daten gemacht, nämlich dass eine Randbedingung für die Verteilung gilt. Dies bedeutet, dass in einem Bereich um die Grenze der zu lernenden Menge keine Daten gezogen werden können. Unter diesen Annahmen zeigen wir, dass die obere Schranke für das Risiko optimal ist und nur polynomiell von der Dimension abhängt.
Abstract (eng)
Machine learning often deals with the construction of error bounds for problems where the goal is to approximate a classifier with some functions of a certain class from sampled points. The tightness of the bounds depends on the assumptions made about the classifier to learn, the distribution of the data and the type of functions taken as hypotheses. This goal of this paper is to derive such bounds for cases where the classifier is a set with functions of the Barron class as local boundaries and neural network as hypothesis set. A further and central assumption is made about the distribution of the data, namely that a margin condition on the distribution holds. This means that no data can be sampled in an area around the boundary of the set to learn. Under these assumptions we show the upper bound for the risk is optimal and only polynomially dependent of the dimension.
Keywords (deu)
Machine LearningStatistisches LernenBarron-Klasse
Keywords (eng)
Machine LearningStatistical LearningBarron class
Subject (deu)
Type (deu)
Persistent identifier
https://phaidra.univie.ac.at/o:1623034
rdau:P60550 (deu)
27 Seiten : Illustrationen
Number of pages
36
Association (deu)
Members (1)
Title (eng)
Estimation of sets with Barron boundaries under margin conditions
Parallel title (deu)
Einschätzung von Mengen mit Barron-Grenzen unter Randbedigungen
Author
Simon Noël-Marie Fourmann
Abstract (deu)
Beim maschinellen Lernen geht es häufig um die Konstruktion von Schranken für Probleme, bei denen das Ziel darin besteht, einen Klassifikator mit Funktionen einer bestimmten Klasse aus Stichprobenpunkten zu approximieren. Wie eng die Schranken sind, hängt von den Annahmen über den zu lernenden Klassifikator, die Verteilung der Daten und die Art der als Hypothesen verwendeten Funktionen ab. Ziel dieser Arbeit ist es, solche Schranken für Fälle abzuleiten, in denen der Klassifikator eine Menge mit Funktionen der Barron-Klasse als lokale Grenzen und ein neuronales Netz als Hypothesenmenge ist. Eine weitere und zentrale Annahme wird über die Verteilung der Daten gemacht, nämlich dass eine Randbedingung für die Verteilung gilt. Dies bedeutet, dass in einem Bereich um die Grenze der zu lernenden Menge keine Daten gezogen werden können. Unter diesen Annahmen zeigen wir, dass die obere Schranke für das Risiko optimal ist und nur polynomiell von der Dimension abhängt.
Abstract (eng)
Machine learning often deals with the construction of error bounds for problems where the goal is to approximate a classifier with some functions of a certain class from sampled points. The tightness of the bounds depends on the assumptions made about the classifier to learn, the distribution of the data and the type of functions taken as hypotheses. This goal of this paper is to derive such bounds for cases where the classifier is a set with functions of the Barron class as local boundaries and neural network as hypothesis set. A further and central assumption is made about the distribution of the data, namely that a margin condition on the distribution holds. This means that no data can be sampled in an area around the boundary of the set to learn. Under these assumptions we show the upper bound for the risk is optimal and only polynomially dependent of the dimension.
Keywords (deu)
Machine LearningStatistisches LernenBarron-Klasse
Keywords (eng)
Machine LearningStatistical LearningBarron class
Subject (deu)
Type (deu)
Persistent identifier
https://phaidra.univie.ac.at/o:1635331
Number of pages
36
Association (deu)