diskriminierung-ai

Diskriminierung durch Künstliche Intelligenz und Algorithmen - ein Überblick

Digitale Entscheidungs­systeme treffen in Sekunden­bruchteilen Urteile, für die Menschen früher Tage brauchten. Doch ihre Geschwindigkeit und scheinbare Objektivität täuschen: Verzerrte Trainings­daten, versteckte Stellvertreter­variablen oder mangelnde Transparenz können dazu führen, dass Algorithmen jahrzehntealte Vorurteile verstärken statt sie abzubauen. Dieser Beitrag beleuchtet, wie solche Diskriminierungen entstehen, welche Rechts­instrumente Betroffenen in Österreich zur Verfügung stehen und warum die Beweislast­umkehr des Gleichbehandlungs­gesetzes dabei eine zentrale Rolle spielt.

(Bildnachweis: ChatGPT o3)

Algorithmische Entscheidungssysteme filtern Bewerbungen, vergeben Kredite oder helfen Behörden, Belastungen vorherzusagen. Ihre Versprechen lauten Effizienz, Objektivität und Skalierbarkeit. Doch dieselben Systeme können Menschen sachlich unbegründet benachteiligen – etwa, wenn historisch voreingenommene Daten, verdeckte Stellvertreter-Variablen oder blinde Flecken in Testdatensätzen die Modelle verzerren. Im Arbeitsalltag führt das zu ganz realen Folgen: Der ideale Kandidat erhält keine Einladung, die Kreditlimite sinkt unerwartet, das medizinische Symptom wird fehlinterpretiert. Die Geschädigten stehen nicht nur vor persönlichen Rückschlägen, sondern auch vor der schwierigen Aufgabe, das Diskriminierungsmuster überhaupt sichtbar zu machen. Dieser Beitrag erläutert praxisnah, woher algorithmische Diskriminierung kommt, welche rechtlichen Mittel Betroffenen in Österreich offenstehen und warum die Beweislast­regeln des Gleichbehandlungsgesetzes (GlBG) eine Schlüsselrolle spielen.

 

Ursachen algorithmischer Diskriminierung

Zuerst müssen wir die Ursachen algorithmischer Diskriminierung verstehen.

 

1. Historischer Bias in Trainingsdaten

Maschinelles Lernen reproduziert systematisch, was ihm vorgelegt wird. Spiegeln die Trainingsdaten frühere Vorurteile wider, schreibt das Modell diese fort. Das von Amazon entwickelte Recruiting-Tool ist ein Paradebeispiel: Weil die historischen Erfolgskandidaten überwiegend Männer waren, lernte der Algorithmus, männliche Bewerbungen höher zu bewerten und sortierte weibliche Kandidatinnen aus. Der Fehler lag nicht in der Codezeile, sondern in der Annahme, vergangene Einstellungspraktiken seien per se korrekt. Verzerrte Daten bleiben also das Einfallstor Nummer eins – „rubbish in, rubbish out“.

 

2. Korrelationsfallen

Selbst wenn Entwickler geschützte Merkmale wie Geschlecht oder ethnische Herkunft aus Datensätzen löschen, findet das Modell oft indirekte Stellvertreter. Vornamen, besuchte Schulen oder Hobbys können stark korrelieren und als heimliche Entscheidungstreiber wirken. Weil maschinelles Lernen nur Korrelationen, aber keine Kausalität erkennt, verwechselt es scheinbar bedeutungsvolle Muster mit echten Ursachen. Wer also Attribute entfernt, ohne die Datenstruktur kritisch zu hinterfragen, verlagert die Verzerrung lediglich in schwer erkenn­bare Ecken.

 

3. Fehlende Repräsentativität

Schlecht austarierte Datensätze benachteiligen Gruppen, die selten vorkommen. Gesichtserkennungs­systeme identifizieren weiße Männer mit über 99 % Genauigkeit, schneiden bei schwarzen Frauen aber deutlich schlechter ab, wenn diese in den Trainingsbildern kaum vertreten waren. Solche Ungleichgewichte entstehen häufig unbeabsichtigt, entfalten aber im Einsatz gravierende Auswirkungen – etwa wenn ein Fotoautomat dunkle Hauttöne nicht erfasst und damit amtliche Dokumente verhindert.

 

4. Mangelnde Transparenz („Black-Box-Effekt“)

Tiefe neuronale Netze produzieren Ergebnisse, deren Entstehungsweg selbst Fachleute kaum nachvollziehen können. Für Betroffene erschwert das den Nachweis, ob ein negatives Ergebnis auf einem legitimen Kriterium oder auf diskriminierender Verzerrung beruht. Ohne Einblick in Features, Gewichtungen und Trainingsroutinen lassen sich Fehlerquellen schwer isolieren, Verantwortlichkeiten verschwimmen und Haftungsfragen bleiben offen.

 

5. Skalen- und Wahrnehmungseffekte

Menschen diskriminieren zwar ebenfalls, tun dies jedoch punktuell; KI-Systeme multiplizieren eine Verzerrung auf hunderttausende Entscheidungen pro Tag. Zugleich genießen automatisierte Resultate den Ruf technischer Neutralität – der „Automation Bias“ senkt die Bereitschaft, Ergebnisse kritisch zu hinterfragen. Treffen diese beiden Effekte zusammen, kann eine einzelne Fehlannahme ganze Bevölkerungsgruppen systematisch ausschließen.

 

Rechtlicher Rahmen in Österreich

Das österreichische Gleichbehandlungsgesetz verbietet Benachteiligungen im Zusammenhang mit Arbeitsverhältnissen aufgrund von Geschlecht, ethnischer Zugehörigkeit, Religion oder Weltanschauung, Alter, sexueller Orientierung und Behinderung. Ähnliche Schutzmechanismen enthält das Behinderten­einstellungsgesetz. Eine unmittelbar diskriminierende Entscheidung – etwa die algorithmisch motivierte Ablehnung einer weiblichen Bewerberin – ist nach § 3 GlBG grundsätzlich unzulässig und nur in eng ausgelegten Ausnahmefällen rechtfertigungsfähig, beispielsweise wenn ein bestimmtes Geschlecht eine unverzichtbare berufliche Voraussetzung darstellt (§ 20 Abs 2 GlBG). Mittelbare Diskriminierungen (§ 19 GlBG) erfassen vermeintlich neutrale Kriterien, die faktisch zu Nachteilen führen, beispielsweise wenn Teilzeitquoten – statistisch häufiger von Frauen genutzt – systematisch Karriereschritte blockieren.

 

Erhält eine Bewerberin aufgrund algorithmischer Voreinstellung keine Stelle, kann sie Schadenersatz verlangen. Bei diskriminierender Kündigung hat der Arbeitnehmer Wahlrecht zwischen Anfechtung (mit rückwirkender Fortsetzung des Dienstverhältnisses) oder Kündigungsentschädigung. Zudem steht immaterieller Ersatz für persönliche Beeinträchtigung zu, dessen Höhe Gerichte nach Dauer, Verschulden und Intensität bemessen. Treffen mehrere Diskriminierungsmerkmale zusammen – etwa Geschlecht und Religion – erhöht sich der immaterielle Schadenersatz.

 

Betroffene müssen nach § 12 Abs 12 GlBG eine Diskriminierung nur „glaubhaft machen“; es genügt eine überwiegende Wahrscheinlichkeit, dass ein geschütztes Merkmal eine Rolle spielte. Gelingt diese Hürde, trägt der Arbeitgeber die volle Beweislast, dass kein unzulässiger Unterschied vorliegt oder eine sachliche Rechtfertigung greift. In der Praxis bedeutet das: Eine abgelehnte Bewerberin muss lediglich Indizien wie auffällige Ablehnungsquoten, problematische Trainingsprotokolle oder interne E-Mails vorlegen. Verweigert der Arbeitgeber Einblick in relevante Informationen, kann schon diese Weigerung als Indiz gewertet werden – ein starker Hebel, gerade bei Black-Box-Systemen.

 

Beispiele aus der Praxis

Im Recruiting filtern automatisierte Systeme Bewerbungen nach Mustern, die in vergangenen Erfolgsgeschichten verborgen sind. Korpulente Lücken im Lebenslauf, bedingt durch Kinderbetreuung, werden als negatives Signal interpretiert, obwohl sie für die Eignung sachlich unerheblich sind. In sozialen Netzwerken versteckt Targeting-Software Jobanzeigen vor Nutzerinnen ab 45 Jahren, weil historische Kampagnen auf junge Zielgruppen abzielten. Gerichte haben bisher wenige KI-Fälle entschieden, doch können selbst hypothetische Vergleichspersonen genügen, um eine unmittelbare Diskriminierung festzustellen.

 

Im öffentlichen Bereich produziert das US-amerikanische COMPAS-System laut Recherchen des ProPublica-Kollektivs (2016) doppelt so viele falsche Rückfallprognosen für schwarze wie für weiße Angeklagte. Nach österreichischem Recht wäre die Anwendung eines ähnlich fehlerhaften Risk-Scores in gerichtlichen Entscheidungen nicht nur problematisch unter Gleichheitsgesichtspunkten; sie könnte auch eine mittelbare Diskriminierung darstellen, sofern die Prognose Frauen oder ethnische Minderheiten strukturell benachteiligt.

 

Ausblick

Algorithmische Diskriminierung ist kein hypothetisches Phänomen, sondern eine greifbare Herausforderung in einer digitalisierten Arbeitswelt. Verzerrte Daten, Stellvertreter-Variablen und die Black-Box-Natur moderner KI-Modelle erhöhen das Risiko, dass geschützte Gruppen bewusst oder unbewusst benachteiligt werden. Das österreichische Antidiskriminierungsrecht bietet zwar einen robusten Schutzrahmen, verlangt Betroffenen aber, die Diskriminierung zunächst glaubhaft zu machen – ein Schritt, der ohne Transparenz kaum zu bewältigen ist.

 

Unternehmen, die KI einsetzen, sollten daher frühzeitig faire Datenpraktiken, erklärbare Modelle und kontinuierliche Audits etablieren. Denn effiziente Algorithmen entfalten ihren gesellschaftlichen Nutzen erst dann voll, wenn sie Vertrauen verdienen und Rechtssicherheit wahren. Ab 2026 wird die EU-KI-Verordnung zusätzliche Pflichten, insbesondere für Hochrisiko-Systeme, einführen. Wer heute schon für Nachvollziehbarkeit und Fairness sorgt, erfüllt nicht nur künftige Compliance-Anforderungen, sondern stärkt auch die Akzeptanz seiner KI-Lösungen.

0
Feed

Informationen zu Cookies und Datenschutz

Diese Website verwendet Cookies. Dabei handelt es sich um kleine Textdateien, die mit Hilfe des Browsers auf Ihrem Endgerät abgelegt werden. Sie richten keinen Schaden an.

Cookies, die unbedingt für das Funktionieren der Website erforderlich sind, setzen wir gemäß Art 6 Abs. 1 lit b) DSGVO (Rechtsgrundlage) ein. Alle anderen Cookies werden nur verwendet, sofern Sie gemäß Art 6 Abs. 1 lit a) DSGVO (Rechtsgrundlage) einwilligen.


Sie haben das Recht, Ihre Einwilligung jederzeit zu widerrufen. Durch den Widerruf der Einwilligung wird die Rechtmäßigkeit der aufgrund der Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Sie sind nicht verpflichtet, eine Einwilligung zu erteilen und Sie können die Dienste der Website auch nutzen, wenn Sie Ihre Einwilligung nicht erteilen oder widerrufen. Es kann jedoch sein, dass die Funktionsfähigkeit der Website eingeschränkt ist, wenn Sie Ihre Einwilligung widerrufen oder einschränken.


Das Informationsangebot dieser Website richtet sich nicht an Kinder und Personen, die das 16. Lebensjahr noch nicht vollendet haben.


Um Ihre Einwilligung zu widerrufen oder auf gewisse Cookies einzuschränken, haben Sie insbesondere folgende Möglichkeiten:

Notwendige Cookies:

Die Website kann die folgenden, für die Website essentiellen, Cookies zum Einsatz bringen:


Optionale Cookies zu Marketing- und Analysezwecken:


Cookies, die zu Marketing- und Analysezwecken gesetzt werden, werden zumeist länger als die jeweilige Session gespeichert; die konkrete Speicherdauer ist dem jeweiligen Informationsangebot des Anbieters zu entnehmen.

Weitere Informationen zur Verwendung von personenbezogenen Daten im Zusammenhang mit der Nutzung dieser Website finden Sie in unserer Datenschutzerklärung gemäß Art 13 DSGVO.