Bias in KI-Systemen
Description
Slides zum Workshop im Rahmen einer internen Fortbildungsreihe am Institut für Interaktive Systeme (ISy) der Technischen Hochschule Lübeck.
Abstract
Verzerrte Daten führen zu verzerrten Entscheidungen, oder kurz: Garbage in, Garbage out. Am Institut für Interaktive Systeme nutzen und entwickeln wir auch selbst Anwendungen, die auf KI-Technologien basieren. Daher sollten wir uns bewusst sein, dass diese immer Verzerrungen (Biases) unterliegen.
Im Workshop steigen wir allgemein in das Thema ein und reflektieren, welche Konsequenzen das für unsere Arbeit hat. Wir lernen die Methoden "Diversity Personas" und "De-Biasing durch Prompting" kennen und schauen, inwieweit sie uns beim Erkennen und Abmildern von Biases helfen können.
Files
2025-01-15_KI-Workshop_Bias.pdf
Files
(10.8 MB)
| Name | Size | Download all |
|---|---|---|
|
md5:e9df71d28ce6eadb7ab526b86feaa0c5
|
10.8 MB | Preview Download |
Additional details
Additional titles
- Subtitle (German)
- Workshop am Institut für Interaktive Systeme
Dates
- Available
-
2025-01-15
References
- Alenichev, A., Kingori, P., & Grietens, K. P. (2023). Reflections before the storm: The AI reproduction of biased imagery in global health visuals. The Lancet Global Health, 11(10), e1496–e1498. DOI: 10.1016/S2214-109X(23)00329-7
- Axbom, P. (2024). Generative AI can not generate its way out of prejudice. Axbom.
- Charta der Vielfalt e.V. (2022). Arbeitsblatt "Privilege and Power Wheel".
- Feng, S., Park, C. Y., Liu, Y., & Tsvetkov, Y. (2023). From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models. In A. Rogers, J. Boyd-Graber, & N. Okazaki (Hrsg.), Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (S. 11737–11762). Association for Computational Linguistics. DOI: 10.18653/v1/2023.acl-long.656
- kathia. (2024). Wie wird gleich? 38. Chaos Communication Congress (38c3), Hamburg.
- Marsden, N., Raudonat, K., & Pröbster, M. (2023). Kreislauf der Diskriminierung. Frauen machen Informatik. Magazin der GI-Fachgruppe Frauen in der Informatik, 47(September).
- Milmo, D. (2024). Google pauses AI-generated images of people after ethnicity criticism. The Guardian vom 22.02.2024.
- Mühlhoff, R., & Henningsen, M. (2024). Chatbots im Schulunterricht: Wir testen das Fobizz-Tool zur automatischen Bewertung von Hausaufgaben (No. arXiv:2412.06651). arXiv. DOI: 10.48550/arXiv.2412.06651
- Wan, Y., Pu, G., Sun, J., Garimella, A., Chang, K.-W., & Peng, N. (2023). "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in LLM-Generated Reference Letters (No. arXiv:2310.09219). arXiv. DOI: 10.48550/arXiv.2310.09219