Published February 21, 2024
| Version v1
Conference paper
Open
»LLMs for everything?« Potentiale und Probleme der Anwendung von In-Context-Learning für die Computational Literary Studies
Creators
- 1. Universität Stuttgart, Deutschland
- 2. Universität zu Köln, Deutschland
Contributors
Data managers:
- 1. Universität Trier
- 2. Universität Luxemburg
- 3. Universität Passau
- 4. Digital Humanities im deutschsprachigen Raum
- 5. Universität zu Köln
Description
Große Sprachmodelle, sogenannte ›Large Language Models‹ (LLMs), zeigen ab einer bestimmten Größe ›emergent abilites‹, durch die sie sich von Ihren Vorläufern unterscheiden. Zu diesen Fähigkeiten zählt insbesondere die Möglichkeit des sogenannten In-Context-Learnings (ICL), das sich von den traditionellen Formen des (selbst)überwachten Lernens unterscheidet: Anstelle ein vortrainiertes Model mithilfe von fragestellungsspezifischen Daten feinabzustimmen, arbeitet man beim ICL mit natürlichsprachlichen Eingaben – sogenannten ›Prompts‹ –, welche aus einer Beschreibung der auszuführenden Aufgabe und/oder Beispielen derselben bestehen. Im Rahmen unseres Vortrages wollen wir Potential und Probleme dieser Technik für die Computational Literary Studies (CLS) ausloten. Dafür versuchen wir die Resultate von Andrew Pipers Studie »Can we wrong?«, die sich der Rolle von Generalisierungen in den Literary Studies widmet, auf Basis von OpenAIs text-davinci-003-LLM mithilfe von ICL zu reproduzieren bzw. zu übertreffen. Ausgehend von den verhältnismäßig niedrigen Accuracy- und F1-Scores, die wir dabei erzielten, reflektieren wir die gegenwärtigen Einsatzmöglichkeiten von ICL in den CLS.
Files
VO11_PICHLER_Axel__LLMs_for_everything___Potentiale_und_Probleme_.pdf
Files
(123.1 kB)
| Name | Size | Download all |
|---|---|---|
|
md5:6cc18144978cd91c78dcee320c718a98
|
87.7 kB | Preview Download |
|
md5:b5de856a9ff08631afb25073ad6b0833
|
35.4 kB | Preview Download |
Additional details
Related works
- Is part of
- Book: 10.5281/zenodo.10686564 (DOI)