Published January 15, 2025 | Version v1
Presentation Open

Bias in KI-Systemen

Authors/Creators

  • 1. Technical University of Applied Sciences Lübeck

Description

Slides zum Workshop im Rahmen einer internen Fortbildungsreihe am Institut für Interaktive Systeme (ISy) der Technischen Hochschule Lübeck.

Abstract

Verzerrte Daten führen zu verzerrten Entscheidungen, oder kurz: Garbage in, Garbage out. Am Institut für Interaktive Systeme nutzen und entwickeln wir auch selbst Anwendungen, die auf KI-Technologien basieren. Daher sollten wir uns bewusst sein, dass diese immer Verzerrungen (Biases) unterliegen.

Im Workshop steigen wir allgemein in das Thema ein und reflektieren, welche Konsequenzen das für unsere Arbeit hat. Wir lernen die Methoden "Diversity Personas" und "De-Biasing durch Prompting" kennen und schauen, inwieweit sie uns beim Erkennen und Abmildern von Biases helfen können.

Files

2025-01-15_KI-Workshop_Bias.pdf

Files (10.8 MB)

Name Size Download all
md5:e9df71d28ce6eadb7ab526b86feaa0c5
10.8 MB Preview Download

Additional details

Additional titles

Subtitle (German)
Workshop am Institut für Interaktive Systeme

Dates

Available
2025-01-15

References

  • Alenichev, A., Kingori, P., & Grietens, K. P. (2023). Reflections before the storm: The AI reproduction of biased imagery in global health visuals. The Lancet Global Health, 11(10), e1496–e1498. DOI: 10.1016/S2214-109X(23)00329-7
  • Axbom, P. (2024). Generative AI can not generate its way out of prejudice. Axbom.
  • Charta der Vielfalt e.V. (2022). Arbeitsblatt "Privilege and Power Wheel".
  • Feng, S., Park, C. Y., Liu, Y., & Tsvetkov, Y. (2023). From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models. In A. Rogers, J. Boyd-Graber, & N. Okazaki (Hrsg.), Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (S. 11737–11762). Association for Computational Linguistics. DOI: 10.18653/v1/2023.acl-long.656
  • kathia. (2024). Wie wird gleich? 38. Chaos Communication Congress (38c3), Hamburg.
  • Marsden, N., Raudonat, K., & Pröbster, M. (2023). Kreislauf der Diskriminierung. Frauen machen Informatik. Magazin der GI-Fachgruppe Frauen in der Informatik, 47(September).
  • Milmo, D. (2024). Google pauses AI-generated images of people after ethnicity criticism. The Guardian vom 22.02.2024.
  • Mühlhoff, R., & Henningsen, M. (2024). Chatbots im Schulunterricht: Wir testen das Fobizz-Tool zur automatischen Bewertung von Hausaufgaben (No. arXiv:2412.06651). arXiv. DOI: 10.48550/arXiv.2412.06651
  • Wan, Y., Pu, G., Sun, J., Garimella, A., Chang, K.-W., & Peng, N. (2023). "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in LLM-Generated Reference Letters (No. arXiv:2310.09219). arXiv. DOI: 10.48550/arXiv.2310.09219