Transparenz in der Werbung mit Künstlicher Intelligenz ohne Irreführung

Hersteller von KI-Systemen preisen ihre Produkte gern als „fair“, „menschen­zentriert“ oder „trustworthy“ an. Ohne belastbare Nachweise droht jedoch der Vorwurf des Ethics Washing – und damit ein Verstoß gegen das Irreführungs­verbot des § 2 UWG. Dieser Beitrag zeigt, warum Gerichte wohl das aus der Green- und Blue-Washing-Judikatur bekannte Strengeprinzip anwenden werden, welche Belege zwingend sind und wie sich der AI Act auf die Werbung auswirkt.

(Bildnachweis: ChatGPT o3)

Künstliche Intelligenz gilt als Wachstumstreiber, weckt aber auch Ängste vor Diskriminierung, Sicherheitslücken und Intransparenz. Unternehmen reagieren mit Vertrauens­botschaften: Ihre KI sei besonders sicher, fair oder vorurteilsfrei. Stimmen diese Aussagen nicht, handelt es sich um Trust- bzw. Ethics Washing. Hier gibt es tatsächlich Haftungsrisiken, die KI-Anbieter und KI-Betreiber bedenken sollten. Denn lauterkeits­rechtlich genügt dabei bereits die Eignung zur Irreführung – ein tatsächlicher Schaden ist nicht erforderlich.

 

Zur rechtlichen Grundlage

Das zentrale Tatbestands­merkmal des § 2 UWG lautet Irreführung. Eine unlautere Irreführung liegt bereits dann vor, wenn die betreffende Darstellung geeignet ist, den durchschnittlich informierten, aufmerksamen und verständigen Verbraucher zu einer wirtschaftlichen Entscheidung zu verleiten, die er sonst nicht getroffen hätte. Der Gesetzgeber knüpft damit an ein hypothetisches Kausalitäts­modell an: Es genügt die abstrakte Verleitungs­kraft, nicht ein messbarer Irrtum beim konkreten Käufer. Die Rechtsprechung fasst den Kreis der nach § 2 UWG geschützten Adressaten weit. Auch professionelle Einkäufer können als Verbraucher im Sinne der Norm gelten, sofern sie keine spezialisierten Fachleute sind. Für Anbieter von KI-Services bedeutet das: Nicht nur Endnutzer-Apps, sondern auch Business-to-Business-Lösungen unterliegen der lauterkeits­rechtlichen Prüfung.

 

Ein beliebter Werbe­trick besteht darin, komplexe Eigenschafts­bündel in eingängige Schlagworte zu pressen. „Trustworthy AI“ soll suggerieren, man könne die Maschine bedenkenlos einsetzen, weil sie alle wesentlichen Werte respektiere. Hinter der Floskel verbergen sich jedoch verschiedene Dimensionen – von der Daten­güte über die Robustheit der Modell­architektur bis zur Dokumentation der Entwicklungs­prozesse.

 

Wer eine KI als „vertrauenswürdig“ bewirbt, muss deshalb nachweisen können, dass sämtliche relevanten Aspekte (z. B. Training, Daten­herkunft, Governance) dieses Prädikat rechtfertigen!

 

Wer also mit einem so schillernden Begriff wie "trustworthy ai" wirbt, trägt das Risiko, dass Gerichte jede denkbare Auslegung zu Grunde legen. Der Werbende muss die für ihn ungünstigste Auslegung gegen sich gelten lassen. Daraus folgt eine umfassende Beweislast. Sobald ein Teilaspekt nicht belegt werden kann – etwa die Freiheit von Diskriminierungs­effekten bei Randgruppen –, droht der Unterlassungs­anspruch.

 

Hintergrund: das sog. Strengeprinzip

Die strengste Form der lauterkeits­rechtlichen Kontrolle entwickelte die Judikatur zunächst bei Umwelt­werbung. Ausgangspunkt war die Erkenntnis, dass Hinweise auf Nachhaltigkeit oder Naturverträglichkeit das moralische Gewissen der Konsumenten direkt ansprechen und deshalb in hohem Maß kaufentscheidend wirken. Weil zugleich die naturwissenschaft­lichen Hintergründe komplex sind, entsteht eine doppelte Asymmetrie: starke motivational­e Wirkung bei schwacher Sachkenntnis des Publikums. Folgerichtig verlangte der deutsche BGH schon früh, dass Umweltaussagen nicht nur objektiv richtig, sondern auch unmissverständlich und nachprüfbar sein müssen. Relativierende Kleingedruckt-Passagen oder schwer zugängliche Studien genügen nicht; Erläuterungen müssen im selben Medium platziert und klar hervorgehoben sein. Österreichische Gerichte, allen voran der OGH, schlossen sich dieser Linie an. Bald übertrug man den Ansatz auf Sozialwerbung – das sogenannte Blue Washing –, weil auch soziale Versprechen wie faire Entlohnung oder Diversität eine vergleichbare emotionale Sogwirkung entfalten.

 

Die Frage, ob das Strengeprinzip auch für KI-Claims (KI-Werbung) gilt, legt sich aus mehreren Gründen nahe. Erstens ist der technische Unterbau moderner Modelle für Laien so wenig durchschaubar wie CO₂-Bilanzierung oder Lieferketten­audits. Zweitens erleben Verbraucher eine Vielzahl medialer Warnungen vor diskriminierenden Entscheidungen, unsichtbaren Manipulations­mechanismen und existenziellen Risiken. Die emotionale Komponente ist somit gegeben. Drittens zeigt sich bereits eine wachsende Anzahl von Siegeln, Ratings und Selbstverpflichtungen, die ein höheres Maß an Vertrauenswürdigkeit versprechen. All diese Indizien sprechen dafür, dass Gerichte den strengen Maßstab auch auf KI-Werbung anwenden.

 

Black-Box-Problematik

Die eigentliche Sprengkraft kommt aus der Technik. Deep-Learning-Modelle generieren Ergebnisse, deren innere Logik selbst für Entwickler nicht vollständig nachvollziehbar ist. Wer eine Aussage wie „bias-frei“ oder „fair“ treffen will, braucht ein stichhaltiges Prüf­verfahren. Post-hoc-Erklärungs­ansätze wie LIME, SHAP oder Counter­factual-Explanations können zwar einzelne Entscheidungen illustrieren, liefern aber keine mathematisch saubere Garantie für das gesamte Modell-Verhalten. Gleichzeitig verlangen Gerichte eine Positiv­behauptung: Werbende müssen darlegen, auf welcher methodischen Grundlage sie zu ihrem Versprechen gelangt sind. Ein bloßes Vertrauen auf internes Qualitäts­management reicht nicht. Ohne detaillierte Audit-Berichte, externe Zertifizierung oder nachvollziehbare Test­reihen wird der Nachweis scheitern.

 

Hier zeigt sich der Unterschied zu traditioneller Produkt­werbung. Während ein Staub­sauger­hersteller die Saugleistung mit Labormessungen belegen kann, existieren für systemische Fairness bisher keine allgemein anerkannten ISO-Tests. Anbieter müssen deshalb im eigenen Interesse Verfahren entwickeln, die gerichtlicher Nachprüfung standhalten.

 

AI Act als Bezugsrahmen

Mit dem AI Act hat die Europäische Union das weltweit erste horizontale Regelwerk für KI verabschiedet. Die Verordnung followiert das Risiko­prinzip und statuiert für Hochrisiko-Systeme – etwa im Personal- oder Gesundheits­bereich – umfassende Pflichten: Risk-Management, Daten-Governance, technische Dokumentation, menschliches Überwachen und einiges mehr. Rein werblich stellt sich nun die Frage, ob sich ein Anbieter überhaupt noch mit Vertrauens­botschaften profilieren darf, wenn viele Elemente ohnehin zwingend vorgeschrieben sind.

 

Hier greift das lauterkeits­rechtliche Verbot der Werbung mit Selbst­verständlich­em. Wer eine vom Gesetz zwingend verlangte Eigenschaft als besonderen Vorzug herausstellt, täuscht über die Wettbewerb­s­relevanz dieser Eigenschaft. Für KI-Hochrisiko-Systeme bedeutet das: Eine Anzeige, die die Robustheit des Modells als Alleinstellungs­merkmal preist, obwohl diese Robustheit nach Art 9 AI Act zwingend belegt sein muss, wäre wohl unzulässig. Anders sieht es bei Systemen aus, die nicht in den Hochrisiko-Katalog fallen. Für diese besteht keine regulatorische Verpflichtung zur Vertrauens­würdigkeit. Insofern kann eine fundierte Vertrauens-Aussage durchaus ein legitimer Wettbewerbsvorteil sein, solange sie stimmt.

 

Praktische Handlungs­empfehlungen

Im Unternehmens­alltag empfiehlt es sich, Werbeaussagen zu vertrauenswürdiger KI zuerst in einem interdisziplinären Prüfpfad zu validieren. Beginnend mit der Entwicklung sollten Datenwissenschaftler eine nachvollziehbare Dokumentation der Trainings- und Testdaten erstellen. Parallel dazu muss die Rechtsabteilung prüfen, ob die beabsichtigte Aussage eine gesetzliche Selbstverständlichkeit beschreibt oder tatsächlich einen Mehrwert gegenüber Wettbewerbern darstellt. Liegt ein echter Mehrwert vor, verlangt das Strengeprinzip eine lückenlose Belegstruktur. Diese entsteht, wenn Entwickler, Ethik-Officers und externe Auditoren gemeinsame Prüfberichte anfertigen, die aussagekräftige Kennzahlen enthalten. Fehlen branchen­einheitliche Standards, kann ein Verweis auf etablierte Forschungs­methoden im Bereich Explainable AI helfen, den Nachweis wenigstens plausibel auszugestalten.

 

Kommt das Team zu dem Schluss, dass keine erstklassigen Belege vorliegen, sollte die Werbeaussage entschärft oder auf den belegbaren Teilaspekt reduziert werden. Es ist wesentlich risiko­ärmer, ein Modell als „bias-getestet hinsichtlich Alters- und Geschlechts­unterschieden“ zu bewerben, statt pauschal von „Bias-Freiheit“ zu sprechen. Auch die Formulierung „geprüft nach den Anforderungen des AI Act“ ist gefährlich, wenn die Prüfung lediglich aus einer internen Checkliste bestanden hat. Die Black-Box-Natur komplexer Netze macht Transparenz schwierig; anstatt das Problem zu kaschieren, sollte die Kommunikation die Grenzen offen benennen. Eine ehrliche Aussage wie „Unsere Algorithmen identifizieren rassistische Stereotype mit hoher Treffsicherheit; subtile Mehrdeutigkeiten können wir jedoch noch nicht automatisiert erkennen“ vermeidet den Irreführungsvorwurf und zeigt gleichzeitig Verantwortungsbewusstsein.

 

Parallel zur Claim-Prüfung sind Marketing-Teams zu schulen. Viele Konflikte entstehen, weil glänzende Begrifflichkeiten den Weg von Fach­konferenzen in die Werbebroschüren finden, ohne dass ihr Bedeutungsumfang klar ist. Daher empfiehlt sich ein internes Glossar, in dem Begriffe wie „fair“, „menschenzentriert“ oder „robust“ präzise definiert werden. Dieses Glossar erleichtert nicht nur die juristische Abnahme, sondern unterstützt auch Vertrieb und Support bei Kundenfragen. Unternehmen, die mehrere KI-Produkte vertreiben, sollten außerdem ein Monitoring etablieren, das nach größeren Modell-Updates prüft, ob die Werbung noch den technischen Fakten entspricht. Ein Modell, das im Januar Audit-konform war, kann im Juli nach einem Retraining neue Schwächen zeigen, die das ursprüngliche Vertrauens­versprechen unterhöhlen.

 

Ausblick

Wer heute mit vertrauenswürdiger KI wirbt, bewegt sich auf einem juristischen Minenfeld. Das Irreführungsverbot des § 2 UWG greift bereits bei abstrakter Täuschungs­gefahr, und die Rechtsprechung wird nach allem, was dafür spricht, das Strengeprinzip aus der Green- und Blue-Washing-Judikatur übertragen. Speziell der Black-Box-Effekt erschwert die lückenlose Beweisführung und zwingt Anbieter zu innovativen Nachweis­strategien. Der AI Act schafft zugleich einen gesetzlich definierten Mindeststandard, dessen Erfüllung nicht als Alleinstellungs­merkmal verkauft werden darf. Marketing und Compliance müssen deshalb enger zusammenrücken.

 

In naher Zukunft werden sich wohl branchenspezifische Zertifizierungs­programme etablieren, ähnlich wie Energie­labels im Haushalts­geräte­markt. Solange solche Normen fehlen, müssen Anbieter eigene Maßstäbe setzen und deren Gültigkeit transparent dokumentieren. Nur so lässt sich der Vorwurf des Trustwashing vermeiden – und Vertrauen tatsächlich in dauerhafte Kunden­bindung übersetzen.

0
Feed

Informationen zu Cookies und Datenschutz

Diese Website verwendet Cookies. Dabei handelt es sich um kleine Textdateien, die mit Hilfe des Browsers auf Ihrem Endgerät abgelegt werden. Sie richten keinen Schaden an.

Cookies, die unbedingt für das Funktionieren der Website erforderlich sind, setzen wir gemäß Art 6 Abs. 1 lit b) DSGVO (Rechtsgrundlage) ein. Alle anderen Cookies werden nur verwendet, sofern Sie gemäß Art 6 Abs. 1 lit a) DSGVO (Rechtsgrundlage) einwilligen.


Sie haben das Recht, Ihre Einwilligung jederzeit zu widerrufen. Durch den Widerruf der Einwilligung wird die Rechtmäßigkeit der aufgrund der Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Sie sind nicht verpflichtet, eine Einwilligung zu erteilen und Sie können die Dienste der Website auch nutzen, wenn Sie Ihre Einwilligung nicht erteilen oder widerrufen. Es kann jedoch sein, dass die Funktionsfähigkeit der Website eingeschränkt ist, wenn Sie Ihre Einwilligung widerrufen oder einschränken.


Das Informationsangebot dieser Website richtet sich nicht an Kinder und Personen, die das 16. Lebensjahr noch nicht vollendet haben.


Um Ihre Einwilligung zu widerrufen oder auf gewisse Cookies einzuschränken, haben Sie insbesondere folgende Möglichkeiten:

Notwendige Cookies:

Die Website kann die folgenden, für die Website essentiellen, Cookies zum Einsatz bringen:


Optionale Cookies zu Marketing- und Analysezwecken:


Cookies, die zu Marketing- und Analysezwecken gesetzt werden, werden zumeist länger als die jeweilige Session gespeichert; die konkrete Speicherdauer ist dem jeweiligen Informationsangebot des Anbieters zu entnehmen.

Weitere Informationen zur Verwendung von personenbezogenen Daten im Zusammenhang mit der Nutzung dieser Website finden Sie in unserer Datenschutzerklärung gemäß Art 13 DSGVO.