Erfolgversprechende Entwicklerpersnlichkeit

Als Kapitnin des Schachclubs hatte sie schlechte Karten bei der Auswahl.

Amazon entwickelte ab 2014 ein Computerprogramm, das Lebenslufe von Bewerbern evaluieren sollte. Ziel war es, die Suche nach geeigneten Kandidaten fr eine zu besetzende Stelle zu automatisieren. Das Programm nutzte knstliche Intelligenz und bewertete die Eignung der Bewerbung mit ein bis fnf Sternen. Allerdings stellte das Unternehmen 2015 fest, dass das Programm bei Bewerbungen fr Softwareentwicklung oder andere technische Positionen keine geschlechterneutrale Auswahl traf. Das Online-Rekrutierungsprogramm mochte schlichtweg keine Frauen.
Die Ursache dafr fand sich im Training des Computermodels, welches mit Lebenslufen von Bewerbern der letzten 10 Jahre gespeist wurde. Die meisten Bewerbungen kamen von Mnnern, was die mnnliche Dominanz in der Hightech-Industrie reflektierte. So brachte sich das System selbst bei, dass mnnliche Bewerber zu bevorzugen sind und stufte Bewerber herab, wenn im Lebenslauf das Wort Frau wie bspw. Kapitnin des Frauenschachclubs vorkam. Nach Bekanntwerden des Falls behauptete Amazon, dass das Programm nie von Personalverantwortlichen eingesetzt wurde. Insider sagten allerdings, dass das auf knstlicher Intelligenz basierende Ranking genutzt wurde, wenn auch nicht ausschlielich.

Das Beispiel zeigt, dass die Datenqualitt beim maschinellen Lernen von entscheidender Bedeutung ist. Nach dem Motto Garbage In, Garbage Out kann ein Algorithmus nur so gut sein, wie der Datensatz, der ihm vom Menschen zum Training zu Verfgung gestellt wird.

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G