Abstract (deu)
TITELBLATT nur in PRINTVERSION --
Die bevorstehende Inbetriebnahme des bislang groessten Teilchenbeschleunigers,
des Large Hadron Collider (LHC), wird zu wesentlichen Erkenntnissen im
Gebiet der Hochenergiephysik fuehren. Diese einzigartige Maschine wird Protonen
mit einer Energie von je 7TeV zur Kollision bringen und bewegt sich
damit in einem Energieniveau, das kein von Menschenhand gebauter Beschleuniger
je erreicht hat. Dadurch wird nicht nur ein tieferer Einblick in
den Aufbau der Materie moeglich, sondern es werden auch wesentliche Informationen
ueber die Entstehung des Universums zugaenglich sein.
Neben den nie dagewesenen Energien, die im LHC erzeugt werden, war
und ist auch die Verarbeitung und Speicherung der anfallenden Daten eine
Herausforderung an die beteiligten Wissenschaftler. Das von LHC erzeugte
Datenvolumen belaeuft sich auf 15 Petabyte (15 Millionen Gigabyte) pro Jahr.
Sowohl die zur Auswahl interessanter Kollisionen (Events) verwendeten Algorithmen
als auch die verwendeten Rekonstruktionsalgorithmen muessen enorm
schnell und hoch effektiv sein um die fuer die Physik interessanten Events zu
gewinnen.
Die vorliegende Arbeit gibt als Einleitung einen Ueberblick ueber den Beschleuniger
selbst und beschreibt dann den Aufbau und die verwendeten Detektortechnologien
eines der vier grossen Experimente { des Compact Muon
Solenoid (CMS) Experiments. Darauf folgt ein kurzer Ueberblick ueber die
Triggersoftware, die die Entscheidung trifft, ob ein Event zur weiteren Rekonstruktion
behalten wird oder nicht. Nach einer kleinen, allgemeinen Einfuehrung
in das Gebiet der Statistik wird dann der Kern der Arbeit, die Praesentation
und schrittweise Optimierung eines Algorithmus (des Multi Vertex Fitters
MVF) zur Rekonstruktion von Vertices, erreicht. Die Ergebnisse werden
mit denen eines bereits gut funktionierenden Rekonstruktionsalgorithmus,
des Adaptive Vertex Reconstructors (AVR), verglichen und auf dieser Basis
evaluiert.