30/01/2026
Transparenz in der Werbung mit Künstlicher Intelligenz ohne Irreführung
Hersteller von KI-Systemen preisen ihre Produkte gern als „fair“, „menschenzentriert“ oder „trustworthy“ an. Ohne belastbare Nachweise droht jedoch der Vorwurf des Ethics Washing – und damit ein Verstoß gegen das Irreführungsverbot des § 2 UWG. Dieser Beitrag zeigt, warum Gerichte wohl das aus der Green- und Blue-Washing-Judikatur bekannte Strengeprinzip anwenden werden, welche Belege zwingend sind und wie sich der AI Act auf die Werbung auswirkt.
(Bildnachweis: ChatGPT o3)
Künstliche Intelligenz gilt als Wachstumstreiber, weckt aber auch Ängste vor Diskriminierung, Sicherheitslücken und Intransparenz. Unternehmen reagieren mit Vertrauensbotschaften: Ihre KI sei besonders sicher, fair oder vorurteilsfrei. Stimmen diese Aussagen nicht, handelt es sich um Trust- bzw. Ethics Washing. Hier gibt es tatsächlich Haftungsrisiken, die KI-Anbieter und KI-Betreiber bedenken sollten. Denn lauterkeitsrechtlich genügt dabei bereits die Eignung zur Irreführung – ein tatsächlicher Schaden ist nicht erforderlich.
Zur rechtlichen Grundlage
Das zentrale Tatbestandsmerkmal des § 2 UWG lautet Irreführung. Eine unlautere Irreführung liegt bereits dann vor, wenn die betreffende Darstellung geeignet ist, den durchschnittlich informierten, aufmerksamen und verständigen Verbraucher zu einer wirtschaftlichen Entscheidung zu verleiten, die er sonst nicht getroffen hätte. Der Gesetzgeber knüpft damit an ein hypothetisches Kausalitätsmodell an: Es genügt die abstrakte Verleitungskraft, nicht ein messbarer Irrtum beim konkreten Käufer. Die Rechtsprechung fasst den Kreis der nach § 2 UWG geschützten Adressaten weit. Auch professionelle Einkäufer können als Verbraucher im Sinne der Norm gelten, sofern sie keine spezialisierten Fachleute sind. Für Anbieter von KI-Services bedeutet das: Nicht nur Endnutzer-Apps, sondern auch Business-to-Business-Lösungen unterliegen der lauterkeitsrechtlichen Prüfung.
Ein beliebter Werbetrick besteht darin, komplexe Eigenschaftsbündel in eingängige Schlagworte zu pressen. „Trustworthy AI“ soll suggerieren, man könne die Maschine bedenkenlos einsetzen, weil sie alle wesentlichen Werte respektiere. Hinter der Floskel verbergen sich jedoch verschiedene Dimensionen – von der Datengüte über die Robustheit der Modellarchitektur bis zur Dokumentation der Entwicklungsprozesse.
Wer eine KI als „vertrauenswürdig“ bewirbt, muss deshalb nachweisen können, dass sämtliche relevanten Aspekte (z. B. Training, Datenherkunft, Governance) dieses Prädikat rechtfertigen!
Wer also mit einem so schillernden Begriff wie "trustworthy ai" wirbt, trägt das Risiko, dass Gerichte jede denkbare Auslegung zu Grunde legen. Der Werbende muss die für ihn ungünstigste Auslegung gegen sich gelten lassen. Daraus folgt eine umfassende Beweislast. Sobald ein Teilaspekt nicht belegt werden kann – etwa die Freiheit von Diskriminierungseffekten bei Randgruppen –, droht der Unterlassungsanspruch.
Hintergrund: das sog. Strengeprinzip
Die strengste Form der lauterkeitsrechtlichen Kontrolle entwickelte die Judikatur zunächst bei Umweltwerbung. Ausgangspunkt war die Erkenntnis, dass Hinweise auf Nachhaltigkeit oder Naturverträglichkeit das moralische Gewissen der Konsumenten direkt ansprechen und deshalb in hohem Maß kaufentscheidend wirken. Weil zugleich die naturwissenschaftlichen Hintergründe komplex sind, entsteht eine doppelte Asymmetrie: starke motivationale Wirkung bei schwacher Sachkenntnis des Publikums. Folgerichtig verlangte der deutsche BGH schon früh, dass Umweltaussagen nicht nur objektiv richtig, sondern auch unmissverständlich und nachprüfbar sein müssen. Relativierende Kleingedruckt-Passagen oder schwer zugängliche Studien genügen nicht; Erläuterungen müssen im selben Medium platziert und klar hervorgehoben sein. Österreichische Gerichte, allen voran der OGH, schlossen sich dieser Linie an. Bald übertrug man den Ansatz auf Sozialwerbung – das sogenannte Blue Washing –, weil auch soziale Versprechen wie faire Entlohnung oder Diversität eine vergleichbare emotionale Sogwirkung entfalten.
Die Frage, ob das Strengeprinzip auch für KI-Claims (KI-Werbung) gilt, legt sich aus mehreren Gründen nahe. Erstens ist der technische Unterbau moderner Modelle für Laien so wenig durchschaubar wie CO₂-Bilanzierung oder Lieferkettenaudits. Zweitens erleben Verbraucher eine Vielzahl medialer Warnungen vor diskriminierenden Entscheidungen, unsichtbaren Manipulationsmechanismen und existenziellen Risiken. Die emotionale Komponente ist somit gegeben. Drittens zeigt sich bereits eine wachsende Anzahl von Siegeln, Ratings und Selbstverpflichtungen, die ein höheres Maß an Vertrauenswürdigkeit versprechen. All diese Indizien sprechen dafür, dass Gerichte den strengen Maßstab auch auf KI-Werbung anwenden.
Black-Box-Problematik
Die eigentliche Sprengkraft kommt aus der Technik. Deep-Learning-Modelle generieren Ergebnisse, deren innere Logik selbst für Entwickler nicht vollständig nachvollziehbar ist. Wer eine Aussage wie „bias-frei“ oder „fair“ treffen will, braucht ein stichhaltiges Prüfverfahren. Post-hoc-Erklärungsansätze wie LIME, SHAP oder Counterfactual-Explanations können zwar einzelne Entscheidungen illustrieren, liefern aber keine mathematisch saubere Garantie für das gesamte Modell-Verhalten. Gleichzeitig verlangen Gerichte eine Positivbehauptung: Werbende müssen darlegen, auf welcher methodischen Grundlage sie zu ihrem Versprechen gelangt sind. Ein bloßes Vertrauen auf internes Qualitätsmanagement reicht nicht. Ohne detaillierte Audit-Berichte, externe Zertifizierung oder nachvollziehbare Testreihen wird der Nachweis scheitern.
Hier zeigt sich der Unterschied zu traditioneller Produktwerbung. Während ein Staubsaugerhersteller die Saugleistung mit Labormessungen belegen kann, existieren für systemische Fairness bisher keine allgemein anerkannten ISO-Tests. Anbieter müssen deshalb im eigenen Interesse Verfahren entwickeln, die gerichtlicher Nachprüfung standhalten.
AI Act als Bezugsrahmen
Mit dem AI Act hat die Europäische Union das weltweit erste horizontale Regelwerk für KI verabschiedet. Die Verordnung followiert das Risikoprinzip und statuiert für Hochrisiko-Systeme – etwa im Personal- oder Gesundheitsbereich – umfassende Pflichten: Risk-Management, Daten-Governance, technische Dokumentation, menschliches Überwachen und einiges mehr. Rein werblich stellt sich nun die Frage, ob sich ein Anbieter überhaupt noch mit Vertrauensbotschaften profilieren darf, wenn viele Elemente ohnehin zwingend vorgeschrieben sind.
Hier greift das lauterkeitsrechtliche Verbot der Werbung mit Selbstverständlichem. Wer eine vom Gesetz zwingend verlangte Eigenschaft als besonderen Vorzug herausstellt, täuscht über die Wettbewerbsrelevanz dieser Eigenschaft. Für KI-Hochrisiko-Systeme bedeutet das: Eine Anzeige, die die Robustheit des Modells als Alleinstellungsmerkmal preist, obwohl diese Robustheit nach Art 9 AI Act zwingend belegt sein muss, wäre wohl unzulässig. Anders sieht es bei Systemen aus, die nicht in den Hochrisiko-Katalog fallen. Für diese besteht keine regulatorische Verpflichtung zur Vertrauenswürdigkeit. Insofern kann eine fundierte Vertrauens-Aussage durchaus ein legitimer Wettbewerbsvorteil sein, solange sie stimmt.
Praktische Handlungsempfehlungen
Im Unternehmensalltag empfiehlt es sich, Werbeaussagen zu vertrauenswürdiger KI zuerst in einem interdisziplinären Prüfpfad zu validieren. Beginnend mit der Entwicklung sollten Datenwissenschaftler eine nachvollziehbare Dokumentation der Trainings- und Testdaten erstellen. Parallel dazu muss die Rechtsabteilung prüfen, ob die beabsichtigte Aussage eine gesetzliche Selbstverständlichkeit beschreibt oder tatsächlich einen Mehrwert gegenüber Wettbewerbern darstellt. Liegt ein echter Mehrwert vor, verlangt das Strengeprinzip eine lückenlose Belegstruktur. Diese entsteht, wenn Entwickler, Ethik-Officers und externe Auditoren gemeinsame Prüfberichte anfertigen, die aussagekräftige Kennzahlen enthalten. Fehlen brancheneinheitliche Standards, kann ein Verweis auf etablierte Forschungsmethoden im Bereich Explainable AI helfen, den Nachweis wenigstens plausibel auszugestalten.
Kommt das Team zu dem Schluss, dass keine erstklassigen Belege vorliegen, sollte die Werbeaussage entschärft oder auf den belegbaren Teilaspekt reduziert werden. Es ist wesentlich risikoärmer, ein Modell als „bias-getestet hinsichtlich Alters- und Geschlechtsunterschieden“ zu bewerben, statt pauschal von „Bias-Freiheit“ zu sprechen. Auch die Formulierung „geprüft nach den Anforderungen des AI Act“ ist gefährlich, wenn die Prüfung lediglich aus einer internen Checkliste bestanden hat. Die Black-Box-Natur komplexer Netze macht Transparenz schwierig; anstatt das Problem zu kaschieren, sollte die Kommunikation die Grenzen offen benennen. Eine ehrliche Aussage wie „Unsere Algorithmen identifizieren rassistische Stereotype mit hoher Treffsicherheit; subtile Mehrdeutigkeiten können wir jedoch noch nicht automatisiert erkennen“ vermeidet den Irreführungsvorwurf und zeigt gleichzeitig Verantwortungsbewusstsein.
Parallel zur Claim-Prüfung sind Marketing-Teams zu schulen. Viele Konflikte entstehen, weil glänzende Begrifflichkeiten den Weg von Fachkonferenzen in die Werbebroschüren finden, ohne dass ihr Bedeutungsumfang klar ist. Daher empfiehlt sich ein internes Glossar, in dem Begriffe wie „fair“, „menschenzentriert“ oder „robust“ präzise definiert werden. Dieses Glossar erleichtert nicht nur die juristische Abnahme, sondern unterstützt auch Vertrieb und Support bei Kundenfragen. Unternehmen, die mehrere KI-Produkte vertreiben, sollten außerdem ein Monitoring etablieren, das nach größeren Modell-Updates prüft, ob die Werbung noch den technischen Fakten entspricht. Ein Modell, das im Januar Audit-konform war, kann im Juli nach einem Retraining neue Schwächen zeigen, die das ursprüngliche Vertrauensversprechen unterhöhlen.
Ausblick
Wer heute mit vertrauenswürdiger KI wirbt, bewegt sich auf einem juristischen Minenfeld. Das Irreführungsverbot des § 2 UWG greift bereits bei abstrakter Täuschungsgefahr, und die Rechtsprechung wird nach allem, was dafür spricht, das Strengeprinzip aus der Green- und Blue-Washing-Judikatur übertragen. Speziell der Black-Box-Effekt erschwert die lückenlose Beweisführung und zwingt Anbieter zu innovativen Nachweisstrategien. Der AI Act schafft zugleich einen gesetzlich definierten Mindeststandard, dessen Erfüllung nicht als Alleinstellungsmerkmal verkauft werden darf. Marketing und Compliance müssen deshalb enger zusammenrücken.
In naher Zukunft werden sich wohl branchenspezifische Zertifizierungsprogramme etablieren, ähnlich wie Energielabels im Haushaltsgerätemarkt. Solange solche Normen fehlen, müssen Anbieter eigene Maßstäbe setzen und deren Gültigkeit transparent dokumentieren. Nur so lässt sich der Vorwurf des Trustwashing vermeiden – und Vertrauen tatsächlich in dauerhafte Kundenbindung übersetzen.