05/02/2026
Diskriminierung durch Künstliche Intelligenz und Algorithmen - ein Überblick
Digitale Entscheidungssysteme treffen in Sekundenbruchteilen Urteile, für die Menschen früher Tage brauchten. Doch ihre Geschwindigkeit und scheinbare Objektivität täuschen: Verzerrte Trainingsdaten, versteckte Stellvertretervariablen oder mangelnde Transparenz können dazu führen, dass Algorithmen jahrzehntealte Vorurteile verstärken statt sie abzubauen. Dieser Beitrag beleuchtet, wie solche Diskriminierungen entstehen, welche Rechtsinstrumente Betroffenen in Österreich zur Verfügung stehen und warum die Beweislastumkehr des Gleichbehandlungsgesetzes dabei eine zentrale Rolle spielt.
(Bildnachweis: ChatGPT o3)
Algorithmische Entscheidungssysteme filtern Bewerbungen, vergeben Kredite oder helfen Behörden, Belastungen vorherzusagen. Ihre Versprechen lauten Effizienz, Objektivität und Skalierbarkeit. Doch dieselben Systeme können Menschen sachlich unbegründet benachteiligen – etwa, wenn historisch voreingenommene Daten, verdeckte Stellvertreter-Variablen oder blinde Flecken in Testdatensätzen die Modelle verzerren. Im Arbeitsalltag führt das zu ganz realen Folgen: Der ideale Kandidat erhält keine Einladung, die Kreditlimite sinkt unerwartet, das medizinische Symptom wird fehlinterpretiert. Die Geschädigten stehen nicht nur vor persönlichen Rückschlägen, sondern auch vor der schwierigen Aufgabe, das Diskriminierungsmuster überhaupt sichtbar zu machen. Dieser Beitrag erläutert praxisnah, woher algorithmische Diskriminierung kommt, welche rechtlichen Mittel Betroffenen in Österreich offenstehen und warum die Beweislastregeln des Gleichbehandlungsgesetzes (GlBG) eine Schlüsselrolle spielen.
Ursachen algorithmischer Diskriminierung
Zuerst müssen wir die Ursachen algorithmischer Diskriminierung verstehen.
1. Historischer Bias in Trainingsdaten
Maschinelles Lernen reproduziert systematisch, was ihm vorgelegt wird. Spiegeln die Trainingsdaten frühere Vorurteile wider, schreibt das Modell diese fort. Das von Amazon entwickelte Recruiting-Tool ist ein Paradebeispiel: Weil die historischen Erfolgskandidaten überwiegend Männer waren, lernte der Algorithmus, männliche Bewerbungen höher zu bewerten und sortierte weibliche Kandidatinnen aus. Der Fehler lag nicht in der Codezeile, sondern in der Annahme, vergangene Einstellungspraktiken seien per se korrekt. Verzerrte Daten bleiben also das Einfallstor Nummer eins – „rubbish in, rubbish out“.
2. Korrelationsfallen
Selbst wenn Entwickler geschützte Merkmale wie Geschlecht oder ethnische Herkunft aus Datensätzen löschen, findet das Modell oft indirekte Stellvertreter. Vornamen, besuchte Schulen oder Hobbys können stark korrelieren und als heimliche Entscheidungstreiber wirken. Weil maschinelles Lernen nur Korrelationen, aber keine Kausalität erkennt, verwechselt es scheinbar bedeutungsvolle Muster mit echten Ursachen. Wer also Attribute entfernt, ohne die Datenstruktur kritisch zu hinterfragen, verlagert die Verzerrung lediglich in schwer erkennbare Ecken.
3. Fehlende Repräsentativität
Schlecht austarierte Datensätze benachteiligen Gruppen, die selten vorkommen. Gesichtserkennungssysteme identifizieren weiße Männer mit über 99 % Genauigkeit, schneiden bei schwarzen Frauen aber deutlich schlechter ab, wenn diese in den Trainingsbildern kaum vertreten waren. Solche Ungleichgewichte entstehen häufig unbeabsichtigt, entfalten aber im Einsatz gravierende Auswirkungen – etwa wenn ein Fotoautomat dunkle Hauttöne nicht erfasst und damit amtliche Dokumente verhindert.
4. Mangelnde Transparenz („Black-Box-Effekt“)
Tiefe neuronale Netze produzieren Ergebnisse, deren Entstehungsweg selbst Fachleute kaum nachvollziehen können. Für Betroffene erschwert das den Nachweis, ob ein negatives Ergebnis auf einem legitimen Kriterium oder auf diskriminierender Verzerrung beruht. Ohne Einblick in Features, Gewichtungen und Trainingsroutinen lassen sich Fehlerquellen schwer isolieren, Verantwortlichkeiten verschwimmen und Haftungsfragen bleiben offen.
5. Skalen- und Wahrnehmungseffekte
Menschen diskriminieren zwar ebenfalls, tun dies jedoch punktuell; KI-Systeme multiplizieren eine Verzerrung auf hunderttausende Entscheidungen pro Tag. Zugleich genießen automatisierte Resultate den Ruf technischer Neutralität – der „Automation Bias“ senkt die Bereitschaft, Ergebnisse kritisch zu hinterfragen. Treffen diese beiden Effekte zusammen, kann eine einzelne Fehlannahme ganze Bevölkerungsgruppen systematisch ausschließen.
Rechtlicher Rahmen in Österreich
Das österreichische Gleichbehandlungsgesetz verbietet Benachteiligungen im Zusammenhang mit Arbeitsverhältnissen aufgrund von Geschlecht, ethnischer Zugehörigkeit, Religion oder Weltanschauung, Alter, sexueller Orientierung und Behinderung. Ähnliche Schutzmechanismen enthält das Behinderteneinstellungsgesetz. Eine unmittelbar diskriminierende Entscheidung – etwa die algorithmisch motivierte Ablehnung einer weiblichen Bewerberin – ist nach § 3 GlBG grundsätzlich unzulässig und nur in eng ausgelegten Ausnahmefällen rechtfertigungsfähig, beispielsweise wenn ein bestimmtes Geschlecht eine unverzichtbare berufliche Voraussetzung darstellt (§ 20 Abs 2 GlBG). Mittelbare Diskriminierungen (§ 19 GlBG) erfassen vermeintlich neutrale Kriterien, die faktisch zu Nachteilen führen, beispielsweise wenn Teilzeitquoten – statistisch häufiger von Frauen genutzt – systematisch Karriereschritte blockieren.
Erhält eine Bewerberin aufgrund algorithmischer Voreinstellung keine Stelle, kann sie Schadenersatz verlangen. Bei diskriminierender Kündigung hat der Arbeitnehmer Wahlrecht zwischen Anfechtung (mit rückwirkender Fortsetzung des Dienstverhältnisses) oder Kündigungsentschädigung. Zudem steht immaterieller Ersatz für persönliche Beeinträchtigung zu, dessen Höhe Gerichte nach Dauer, Verschulden und Intensität bemessen. Treffen mehrere Diskriminierungsmerkmale zusammen – etwa Geschlecht und Religion – erhöht sich der immaterielle Schadenersatz.
Betroffene müssen nach § 12 Abs 12 GlBG eine Diskriminierung nur „glaubhaft machen“; es genügt eine überwiegende Wahrscheinlichkeit, dass ein geschütztes Merkmal eine Rolle spielte. Gelingt diese Hürde, trägt der Arbeitgeber die volle Beweislast, dass kein unzulässiger Unterschied vorliegt oder eine sachliche Rechtfertigung greift. In der Praxis bedeutet das: Eine abgelehnte Bewerberin muss lediglich Indizien wie auffällige Ablehnungsquoten, problematische Trainingsprotokolle oder interne E-Mails vorlegen. Verweigert der Arbeitgeber Einblick in relevante Informationen, kann schon diese Weigerung als Indiz gewertet werden – ein starker Hebel, gerade bei Black-Box-Systemen.
Beispiele aus der Praxis
Im Recruiting filtern automatisierte Systeme Bewerbungen nach Mustern, die in vergangenen Erfolgsgeschichten verborgen sind. Korpulente Lücken im Lebenslauf, bedingt durch Kinderbetreuung, werden als negatives Signal interpretiert, obwohl sie für die Eignung sachlich unerheblich sind. In sozialen Netzwerken versteckt Targeting-Software Jobanzeigen vor Nutzerinnen ab 45 Jahren, weil historische Kampagnen auf junge Zielgruppen abzielten. Gerichte haben bisher wenige KI-Fälle entschieden, doch können selbst hypothetische Vergleichspersonen genügen, um eine unmittelbare Diskriminierung festzustellen.
Im öffentlichen Bereich produziert das US-amerikanische COMPAS-System laut Recherchen des ProPublica-Kollektivs (2016) doppelt so viele falsche Rückfallprognosen für schwarze wie für weiße Angeklagte. Nach österreichischem Recht wäre die Anwendung eines ähnlich fehlerhaften Risk-Scores in gerichtlichen Entscheidungen nicht nur problematisch unter Gleichheitsgesichtspunkten; sie könnte auch eine mittelbare Diskriminierung darstellen, sofern die Prognose Frauen oder ethnische Minderheiten strukturell benachteiligt.
Ausblick
Algorithmische Diskriminierung ist kein hypothetisches Phänomen, sondern eine greifbare Herausforderung in einer digitalisierten Arbeitswelt. Verzerrte Daten, Stellvertreter-Variablen und die Black-Box-Natur moderner KI-Modelle erhöhen das Risiko, dass geschützte Gruppen bewusst oder unbewusst benachteiligt werden. Das österreichische Antidiskriminierungsrecht bietet zwar einen robusten Schutzrahmen, verlangt Betroffenen aber, die Diskriminierung zunächst glaubhaft zu machen – ein Schritt, der ohne Transparenz kaum zu bewältigen ist.
Unternehmen, die KI einsetzen, sollten daher frühzeitig faire Datenpraktiken, erklärbare Modelle und kontinuierliche Audits etablieren. Denn effiziente Algorithmen entfalten ihren gesellschaftlichen Nutzen erst dann voll, wenn sie Vertrauen verdienen und Rechtssicherheit wahren. Ab 2026 wird die EU-KI-Verordnung zusätzliche Pflichten, insbesondere für Hochrisiko-Systeme, einführen. Wer heute schon für Nachvollziehbarkeit und Fairness sorgt, erfüllt nicht nur künftige Compliance-Anforderungen, sondern stärkt auch die Akzeptanz seiner KI-Lösungen.