Abstract (deu)
Beim maschinellen Lernen geht es häufig um die Konstruktion von Schranken für Probleme, bei denen das Ziel darin besteht, einen Klassifikator mit Funktionen einer bestimmten Klasse aus Stichprobenpunkten zu approximieren. Wie eng die Schranken sind, hängt von den Annahmen über den zu lernenden Klassifikator, die Verteilung der Daten und die Art der als Hypothesen verwendeten Funktionen ab. Ziel dieser Arbeit ist es, solche Schranken für Fälle abzuleiten, in denen der Klassifikator eine Menge mit Funktionen der Barron-Klasse als lokale Grenzen und ein neuronales Netz als Hypothesenmenge ist. Eine weitere und zentrale Annahme wird über die Verteilung der Daten gemacht, nämlich dass eine Randbedingung für die Verteilung gilt. Dies bedeutet, dass in einem Bereich um die Grenze der zu lernenden Menge keine Daten gezogen werden können. Unter diesen Annahmen zeigen wir, dass die obere Schranke für das Risiko optimal ist und nur polynomiell von der Dimension abhängt.