Abstract (deu)
Crowdsourcing ist ein etablierter Ansatz, um Datensätze zu annotieren, sodass sie analysiert werden können oder die Basis für Anwendungen von ‘Künstlicher Intelligenz’ (‘KI’) bilden. Ein*e Auftraggeber*in verteilt dabei Aufgaben an sogenannte Crowd Worker die Datenpunkte annotieren. Crowdsourcing konfrontiert die Auftraggeber*innen mit multiplen Quellen von Ungewissheit: Wie soll die Aufgabe gestaltet werden, wie können Annotationen am besten genutzt werden, und wie weiß man, ob die Crowd gute Arbeit leistet? All dies verursacht Ungewissheit. Diese Studie untersucht aus der Perspektive der Wissenschafts- und Technikforschung wie Praktiker*innen Ungewissheiten im Rahmen von Crowdsourcing-Prozesses umgehen. Dabei betrachte ich diese Frage aus der Sicht der Actor-Network Theory und analysiere die tatsächliche, chaotische Praxis des Crowdsourcings. Ich führte qualitative Interviews mit Praktiker*innen durch und analysierte diese mit Situational Analysis.
In dieser Studie identifiziere ich verschiedene Strategien zum Umgang mit Ungewissheit. Diese Strategien werden von den meisten Crowdsourcing-Ansätzen verwendet. Darunter ist der Ansatz, das ursprüngliche Problem in kleine ‘atomare Aufgaben’ zu zergliedern. Diese Aufgaben haben oft die Form von Single Choice Fragen, die es auch erlauben, rechnerisch die Ergebnisse zu verarbeiten. In diesem Fall ist es möglich, jeden Datenpunkt durch mehrere Crowd Worker annotieren zu lassen und die Ergebnisse durch Aggregation zu kombinieren. Dadurch kann der Auftraggeber die Ungewissheit über mehrere Personen verteilen und quantifizieren. Es ist aber schwierig, die Aufgaben adäquat zu gestalten, es benötigt oft mehrere Iterationen im Zuge derer die Handlungsmacht zwischen Auftraggeber, Crowd und Aggregationsmechanismus zirkuliert. Dabei privilegieren die Aggregationsmechanismen oft eine Mehrheit und bringen jene, die davon abweichen zum Verstummen.
Die ‘atomaren Aufgaben’ müssen als getreue Vermittler agieren. Um das zu erreichen ist Kontextinformation wichtig. I zeige in dieser Arbeit, dass je nach Umfang des notwendigen Kontexts damit dem Ansatz der Aufgaben-Zergliederung eine Grenze gesetzt ist. Die Wichtigkeit von Kontext führt auch zur Frage, wie dieser Kontext in die Datensätze eingebettet wird und in weiterer Folge in potentielle, darauf aufbauende ‘KI’-Anwendung.
Auftraggeber*innen verwenden verschiedene Möglichkeiten, um die Crowd Worker zu beaufsichtigen, da die Crowd anonym sein kann oder als defizitär im Vergleich zu Expert*innen betrachtet werden kann. Ein kleiner ‘Ground Truth’-Datensatz bei dem die Resultate bekannt sind spielt hier eine wichtige Rolle. Dieser Datensatz kann dazu verwendet werden, um anfangs ‘gute’ Crowd Worker auszuwählen, oder um Testaufgaben zu erstellen, mit denen die Crowd Worker evaluiert werden können. Die Crowd Worker können auch mit ihren Kolleg*innen verglichen werden. Im Anschluss können Auftraggeber*innen Crowd Worker ausschließen und die Bezahlung verweigern.
Diese Studie zeigt, dass Crowdsourcing nicht ‘einfach’ gemacht werden kann, sondern grossen Aufwand bedarf. Diese Arbeit bleibt oft unsichtbar und versteckt. Gleichzeitig zeige ich wie erkenntnistheoretische Einstellungen, ob Auftraggeber*innen Daten als strittig anerkennen, die Gestaltung des Crowdsourcing-Prozesses beeinflussen.