Abstract (deu)
Fairness in Empfehlungssystemen ist ein Forschungsproblem, das in den letzten Jahren viel Aufmerksamkeit erregt hat, insbesondere mit der weit verbreiteten Verwendung von Recommender Systems, die auf Machine Learning basieren. Das Ziel, diese Systeme fair zu halten, hat viele Strategien zur Milderung von Biases hervorgebracht, die zur Diskriminierung von Personen auf Ebene von geschützten Merkmalen wie race oder gender führen. Diese Masterarbeit untersucht, auf welche Art und Weise Begriffe wie „Fairness“, „Bias“ und „Gender“ derzeit in der Empfehlungssystemforschung definiert werden, welche Biases am häufigsten behandelt werden und welche Arten von Strategien zur Bias-Minderung am meisten verwendet werden. Diese systematische Kategorisierung wurde mittels einer deduktiven qualitativen Inhaltsanalyse an einem Korpus bestehend aus 24 Forschungsarbeiten durchgeführt, die sich explizit mit dem Problem der Fairness und Bias-Minderung in Empfehlungssystemen befassen. Die Ergebnisse dieser Analyse zeigen, dass Fairness in diesem Bereich tendenziell als benutzerseitige Gruppengerechtigkeit definiert wird und dass die Geschlechtsvariable häufig undefiniert bleibt oder in einem binären Kontext operationalisiert wird. Darüber hinaus können die Arten von Bias, die am häufigsten behandelt werden, der Kategorie des demographic bias zugeordnet werden und stammen tendenziell aus der Modellbildungs-Pipeline. Strategien zur Bias-Minderung kommen am häufigsten während und nach der Verarbeitung durch das Modell zum Einsatz. Die Offenlegung dieser Tendenzen der Definition, Instrumentalisierung und Quantifizierung sozialer bzw. sozial konstruierter Konzepte trägt dazu bei, zu kontextualisieren, wie Wissen und Bedeutung im Bereich der Empfehlungssystemforschung produziert werden.