Abstract (deu)
In dieser Arbeit wird das Potenzial von GPT-3.5-Turbo zur Vorhersage von Aktienrenditen mittels Sentiment-Analyse von Nachrichtenüberschriften untersucht. Die Experimente dieser Studie lassen sich in zwei Teile gliedern. Im ersten Teil können die Ergebnisse von Lopez-Lira und Tang (2023) mit einer weitgehend äquivalenten Methodologie reproduziert werden, wenn auch in geringerer Größe. Es kann gefolgert werden, dass Aktienrenditen mit Hilfe von GPT-3.5-Turbo über einen eintägigen Zeitraum vorhergesagt werden können. Abgesehen von der Reproduktion der Ergebnisse von Lopez-Lira und Tang (2023) wird gezeigt, dass die Vorhersagbarkeit der Renditen auch im Jahr 2023 anhält. Sowohl Limits-to-Arbitrage als auch Underreaction to News scheinen eine Rolle bei der Erklärung der kumulativen Renditen einer selbstfinanzierenden Long-Short-Strategie zu spielen, jedoch ist der Effekt von Limits-to-Arbitrage stärker ausgeprägt. Die Vorhersagbarkeit ist größer bei Small Caps und bei Short-Trades und nur ein kleiner Teil der positiven Renditen scheint nach Transaktionskosten bestehen zu bleiben. Die Studie findet auch starke Belege dafür, dass ein Machine Learning Modell, das mit numerischen Daten trainiert ist, Large Language Models in dem Return Prediction Task dieser Studie ergänzen kann, wenn dieses Modell verwendet wird, um Nachrichtenüberschriften vor der Sentiment-Klassifizierung zu filtern. Im zweiten Teil dieser Studie werden drei verschiedene Optimierungsmethoden für Large Language Models getestet: Prompt Engineering, Few-Shot Learning und Fine-Tuning. Prompt Engineering ist ein kostengünstiger und relativ einfacher Ansatz zur Leistungsverbesserung im Prediction Task dieser Studie. Die Ergebnisse des Few-Shot Learning zeigen, dass die Performance zwischen Classification Task, gemessen an der Accuracy, und der Handelsstrategie, gemessen an der Sharpe-Ratio, divergieren kann. Fine-Tuning zeigt gemischte Ergebnisse, aber es sollten keine finalen Schlussfolgerungen über dessen Nutzen zur Leistungsverbesserung gezogen werden, da diese Studie stark durch Budgetbeschränkungen eingeschränkt ist. Schließlich werden interessante Richtungen für zukünftige Forschung in den Bereichen Prompt Engineering, Few-Shot Learning und Fine-Tuning vorgeschlagen.