Published February 21, 2024 | Version v1
Conference paper Open

»LLMs for everything?« Potentiale und Probleme der Anwendung von In-Context-Learning für die Computational Literary Studies

  • 1. Universität Stuttgart, Deutschland
  • 2. Universität zu Köln, Deutschland
  • 1. Universität Trier
  • 2. Universität Luxemburg
  • 3. Universität Passau
  • 4. Digital Humanities im deutschsprachigen Raum
  • 5. Universität zu Köln

Description

Große Sprachmodelle, sogenannte ›Large Language Models‹ (LLMs), zeigen ab einer bestimmten Größe ›emergent abilites‹, durch die sie sich von Ihren Vorläufern unterscheiden. Zu diesen Fähigkeiten zählt insbesondere die Möglichkeit des sogenannten In-Context-Learnings (ICL), das sich von den traditionellen Formen des (selbst)überwachten Lernens unterscheidet: Anstelle ein vortrainiertes Model mithilfe von fragestellungsspezifischen Daten feinabzustimmen, arbeitet man beim ICL mit natürlichsprachlichen Eingaben – sogenannten ›Prompts‹ –, welche aus einer Beschreibung der auszuführenden Aufgabe und/oder Beispielen derselben bestehen. Im Rahmen unseres Vortrages wollen wir Potential und Probleme dieser Technik für die Computational Literary Studies (CLS) ausloten. Dafür versuchen wir die Resultate von Andrew Pipers Studie »Can we wrong?«, die sich der Rolle von Generalisierungen in den Literary Studies widmet, auf Basis von OpenAIs text-davinci-003-LLM mithilfe von ICL zu reproduzieren bzw. zu übertreffen. Ausgehend von den verhältnismäßig niedrigen Accuracy- und F1-Scores, die wir dabei erzielten, reflektieren wir die gegenwärtigen Einsatzmöglichkeiten von ICL in den CLS.

Files

VO11_PICHLER_Axel__LLMs_for_everything___Potentiale_und_Probleme_.pdf

Additional details

Related works

Is part of
Book: 10.5281/zenodo.10686564 (DOI)