Abstract (deu)
Tiefe neuronale Netze können für verschiedenste Probleme exzellente Performance erreichen, wenn genügend Daten verfügbar sind. In großen Datensätzen finden sich jedoch häufig Annotationsfehler, welche die Modellqualität negativ beeinflussen können. Um diesen entgegenzuwirken, können sogenannte "Denoising Methoden", welche das Trainieren von Modellen auf fehlerbehafteten Daten vereinfachen, verwendet werden. In dieser Arbeit wird eine neue Denoising Strategie basierend auf dem Prinzip von "Gradient Matching" vorgestellt. Ziel der Methode ist es, während des Trainingsprozesses Datenpunkte, welche einer falschen Klasse zugeordnet wurden, herauszufiltern oder zu korrigieren. Im Vergleich zu manch anderen Denoising Strategien ist unser Algorithmus relativ simpel und breit anwendbar, da er die Wahl der Verlustfunktion, mit der das Modell angepasst wird, nicht einschränkt. Darüber hinaus ist unsere Methode auch für Datensätze, welche mehrere Labels pro Instanz zulassen, geeignet. Um die Effektivität unserer Denoising Strategie zu evaluieren, führen wir Experimente auf drei fehlerbehafteten Datensätzen durch. Die Ergebnisse der Experimente zeigen, dass die Performance unserer Methode stark von den gewählten Verlustfunktionen und Parametern abhängt. Darüber hinaus weist der Algorithmus eine Tendenz auf, viele korrekt annotierte Instanzen aus den Batches zu entfernen. Dennoch wurde in vielen Fällen eine Verbesserung der Performance observiert.