You are here: University of Vienna PHAIDRA Detail o:2056224
Title (eng)
Investigating fairness in recommender systems
a systematic review
Parallel title (deu)
Eine systematische Analyse von Fairness in Empfehlungssystemen
Author
Klara Larissa Prema Howorka
Advisor
Katta Spiel
Assessor
Katta Spiel
Abstract (deu)
Fairness in Empfehlungssystemen ist ein Forschungsproblem, das in den letzten Jahren viel Aufmerksamkeit erregt hat, insbesondere mit der weit verbreiteten Verwendung von Recommender Systems, die auf Machine Learning basieren. Das Ziel, diese Systeme fair zu halten, hat viele Strategien zur Milderung von Biases hervorgebracht, die zur Diskriminierung von Personen auf Ebene von geschützten Merkmalen wie race oder gender führen. Diese Masterarbeit untersucht, auf welche Art und Weise Begriffe wie „Fairness“, „Bias“ und „Gender“ derzeit in der Empfehlungssystemforschung definiert werden, welche Biases am häufigsten behandelt werden und welche Arten von Strategien zur Bias-Minderung am meisten verwendet werden. Diese systematische Kategorisierung wurde mittels einer deduktiven qualitativen Inhaltsanalyse an einem Korpus bestehend aus 24 Forschungsarbeiten durchgeführt, die sich explizit mit dem Problem der Fairness und Bias-Minderung in Empfehlungssystemen befassen. Die Ergebnisse dieser Analyse zeigen, dass Fairness in diesem Bereich tendenziell als benutzerseitige Gruppengerechtigkeit definiert wird und dass die Geschlechtsvariable häufig undefiniert bleibt oder in einem binären Kontext operationalisiert wird. Darüber hinaus können die Arten von Bias, die am häufigsten behandelt werden, der Kategorie des demographic bias zugeordnet werden und stammen tendenziell aus der Modellbildungs-Pipeline. Strategien zur Bias-Minderung kommen am häufigsten während und nach der Verarbeitung durch das Modell zum Einsatz. Die Offenlegung dieser Tendenzen der Definition, Instrumentalisierung und Quantifizierung sozialer bzw. sozial konstruierter Konzepte trägt dazu bei, zu kontextualisieren, wie Wissen und Bedeutung im Bereich der Empfehlungssystemforschung produziert werden.
Abstract (eng)
Fairness in recommender systems is a research problem which has gained a lot of attention in recent years, especially with the widespread use of machine learning based recommender systems. The aim to keep these systems fair has yielded many strategies to mitigate biases which result in discrimination of individuals who belong to protected attribute groups such as race or gender. This master thesis explores how terms such as ‘fairness’, ‘bias’ and ‘gender’ are currently defined in recommender system research, which biases are most commonly treated, as well as which types of bias mitigation strategies are used the most. The systematic review was conducted via a deductive Qualitative Content Analysis on a corpus consisting of 24 research papers which explicitly deal with the problem of fairness and bias mitigation in recommender systems. The results of this analysis show that fairness in this field is generally defined as user-side group fairness and that gender is usually operationalized within a binary context or not defined at all. Moreover, the types of biases which are most commonly treated stem from the model building pipeline and can be more broadly categorized as demographic bias, with in- and post-processing bias mitigation strategies being used the most. Revealing these tendencies of definition, instrumentalization and quantification of social and socially constructed concepts helps to contextualize how knowledge and meaning is produced in the field of recommender system research.
Keywords (deu)
Recommender SystemsEmpfehlungssystemeFairnessGenderBiasBias-MinderungGeschlechtsforschungEmpfehlungssystemforschungInhaltsanalyseLiteraturanalyseMachine LearningKünstliche Intelligenz
Keywords (eng)
recommender systemsfairnessgenderbiasbias mitigationrecommender system researchgender studiesalgorithmic fairnesscontent analysisresearch paper analysismachine learningartificial intelligence
Type (deu)
Persistent identifier
https://phaidra.univie.ac.at/o:2056224
rdau:P60550 (deu)
103 Seiten : Illustrationen
Number of pages
104
Members (1)
Title (eng)
Investigating fairness in recommender systems
a systematic review
Parallel title (deu)
Eine systematische Analyse von Fairness in Empfehlungssystemen
Author
Klara Larissa Prema Howorka
Abstract (deu)
Fairness in Empfehlungssystemen ist ein Forschungsproblem, das in den letzten Jahren viel Aufmerksamkeit erregt hat, insbesondere mit der weit verbreiteten Verwendung von Recommender Systems, die auf Machine Learning basieren. Das Ziel, diese Systeme fair zu halten, hat viele Strategien zur Milderung von Biases hervorgebracht, die zur Diskriminierung von Personen auf Ebene von geschützten Merkmalen wie race oder gender führen. Diese Masterarbeit untersucht, auf welche Art und Weise Begriffe wie „Fairness“, „Bias“ und „Gender“ derzeit in der Empfehlungssystemforschung definiert werden, welche Biases am häufigsten behandelt werden und welche Arten von Strategien zur Bias-Minderung am meisten verwendet werden. Diese systematische Kategorisierung wurde mittels einer deduktiven qualitativen Inhaltsanalyse an einem Korpus bestehend aus 24 Forschungsarbeiten durchgeführt, die sich explizit mit dem Problem der Fairness und Bias-Minderung in Empfehlungssystemen befassen. Die Ergebnisse dieser Analyse zeigen, dass Fairness in diesem Bereich tendenziell als benutzerseitige Gruppengerechtigkeit definiert wird und dass die Geschlechtsvariable häufig undefiniert bleibt oder in einem binären Kontext operationalisiert wird. Darüber hinaus können die Arten von Bias, die am häufigsten behandelt werden, der Kategorie des demographic bias zugeordnet werden und stammen tendenziell aus der Modellbildungs-Pipeline. Strategien zur Bias-Minderung kommen am häufigsten während und nach der Verarbeitung durch das Modell zum Einsatz. Die Offenlegung dieser Tendenzen der Definition, Instrumentalisierung und Quantifizierung sozialer bzw. sozial konstruierter Konzepte trägt dazu bei, zu kontextualisieren, wie Wissen und Bedeutung im Bereich der Empfehlungssystemforschung produziert werden.
Abstract (eng)
Fairness in recommender systems is a research problem which has gained a lot of attention in recent years, especially with the widespread use of machine learning based recommender systems. The aim to keep these systems fair has yielded many strategies to mitigate biases which result in discrimination of individuals who belong to protected attribute groups such as race or gender. This master thesis explores how terms such as ‘fairness’, ‘bias’ and ‘gender’ are currently defined in recommender system research, which biases are most commonly treated, as well as which types of bias mitigation strategies are used the most. The systematic review was conducted via a deductive Qualitative Content Analysis on a corpus consisting of 24 research papers which explicitly deal with the problem of fairness and bias mitigation in recommender systems. The results of this analysis show that fairness in this field is generally defined as user-side group fairness and that gender is usually operationalized within a binary context or not defined at all. Moreover, the types of biases which are most commonly treated stem from the model building pipeline and can be more broadly categorized as demographic bias, with in- and post-processing bias mitigation strategies being used the most. Revealing these tendencies of definition, instrumentalization and quantification of social and socially constructed concepts helps to contextualize how knowledge and meaning is produced in the field of recommender system research.
Keywords (deu)
Recommender SystemsEmpfehlungssystemeFairnessGenderBiasBias-MinderungGeschlechtsforschungEmpfehlungssystemforschungInhaltsanalyseLiteraturanalyseMachine LearningKünstliche Intelligenz
Keywords (eng)
recommender systemsfairnessgenderbiasbias mitigationrecommender system researchgender studiesalgorithmic fairnesscontent analysisresearch paper analysismachine learningartificial intelligence
Type (deu)
Persistent identifier
https://phaidra.univie.ac.at/o:2066304
Number of pages
104