Bias in der Künstlichen Intelligenz Diskriminierungsrisiken bei KI

„Bias“ ist ein englischer Begriff und bedeutet Verzerrung oder Voreingenommenheit. Im Zusammenhang mit Künstlicher Intelligenz (KI) beschreibt er, dass Ergebnisse nicht vollständig neutral sind, sondern bestehende gesellschaftliche Muster, Vorurteile oder Ungleichheiten widerspiegeln können.

KI-Systeme lernen aus großen Datenmengen. In diesen Daten stecken jedoch auch stereotype Darstellungen oder unausgewogene Perspektiven. Dadurch kann es passieren, dass KI solche Muster übernimmt und weiter verstärkt.

Wie Bias in KI entsteht

KI-Systeme werden mit sehr vielen Texten, Bildern und anderen Daten trainiert. Diese Daten bilden die Gesellschaft ab – einschließlich ihrer Ungleichheiten.

Typische Ursachen für Verzerrungen sind etwa:

  • bestimmte Gruppen kommen in den Daten seltener vor
  • Menschen werden stereotyp dargestellt
  • diskriminierende Formulierungen sind Teil der Trainingsdaten
  • historische Ungleichheiten spiegeln sich in den Daten wider

KI erkennt statistische Muster, versteht aber keinen gesellschaftlichen Kontext. Deshalb kann sie bestehende Ungleichheiten übernehmen, ohne sie einordnen oder hinterfragen zu können.

Auch andere Faktoren spielen eine Rolle, etwa:

  • welche Vorgaben in das System eingebaut sind
  • welche Ziele bei der Entwicklung verfolgt werden
  • wie vielfältig die Entwicklerteams sind

Beispiele aus der Praxis

Dass solche Verzerrungen auftreten können, zeigen verschiedene Beispiele:

  • Eine Recruiting-Software bewertete Bewerbungen von Frauen schlechter, weil sie mit überwiegend männlichen Karriereverläufen trainiert worden war.
  • Einige Gesichtserkennungssysteme funktionieren bei bestimmten Personengruppen deutlich ungenauer als bei anderen.
  • Automatisierte Bewertungssysteme können bestehende soziale Unterschiede verstärken. 

Diese Beispiele zeigen: KI trifft keine objektiven Entscheidungen. Sie arbeitet mit Wahrscheinlichkeiten auf Basis vorhandener Daten.

Bedeutung für die SBV-Arbeit

Für Vertrauenspersonen ist das Thema relevant, weil KI in immer mehr Bereichen der Arbeitswelt eingesetzt wird, etwa bei:

  • Bewerbungsverfahren
  • Auswahl- oder Bewertungssystemen
  • digitalen Assistenzsystemen
  • interner Kommunikation oder Öffentlichkeitsarbeit

Menschen mit Behinderungen sind in vielen Datensätzen wenig sichtbar oder werden stereotyp dargestellt. Dadurch kann es zu Benachteiligungen kommen – auch dann, wenn niemand bewusst diskriminieren möchte. Die SBV hat die Aufgabe, Benachteiligungen zu verhindern. Ein grundlegendes Verständnis möglicher KI-bedingter Verzerrungen unterstützt diese Aufgabe.

KI in der Öffentlichkeitsarbeit

Auch in der Öffentlichkeitsarbeit nutzen viele Interessenvertretungen inzwischen KI-Werkzeuge – etwa für:

  • Einladungen
  • Berichte
  • Intranet-Beiträge
  • Flyer oder Bildmaterial

KI kann diese Arbeit erleichtern. Gleichzeitig besteht die Gefahr, dass stereotype Darstellungen entstehen. Beispiele sind etwa:

  • Bilder, in denen Behinderung nur durch einen Rollstuhl dargestellt wird
  • Texte, die Menschen mit Behinderungen vor allem als hilfsbedürftig zeigen
  • fehlende Vielfalt in Beispielen oder Rollenbildern

Deshalb sollten KI-erstellte Inhalte immer geprüft werden: Sind sie inklusiv formuliert? Werden unterschiedliche Lebensrealitäten sichtbar? Ist die Sprache respektvoll und verständlich?

Ein Beispiel für technische Prüfansätze ist das Projekt ABLE (Ableism Bias Language Evaluation) der Aktion Mensch. Die Anwendung analysiert automatisiert Antworten von Chatbots und untersucht, ob diskriminierende oder ableistische Formulierungen auftreten. Ziel ist es, solche Muster sichtbar zu machen und digitale Kommunikation inklusiver zu gestalten. Solche Ansätze können helfen, Sensibilität für ableistische Sprachmuster zu erhöhen – ersetzen jedoch nicht die eigene redaktionelle Prüfung und Verantwortung der Anwenderinnen und Anwender.

Beispiele für bewusste KI-Nutzung

Wie eine Anfrage an ein KI-System formuliert wird, beeinflusst das Ergebnis. 

Beispiel: Einladung zur Schwerbehindertenversammlung

Einfach: „Erstelle eine Einladung zur Schwerbehindertenversammlung.“

Genauer: „Erstelle eine Einladung zur Schwerbehindertenversammlung in verständlicher und inklusiver Sprache. Achte auf eine respektvolle Darstellung von Menschen mit unterschiedlichen Behinderungen.“

Beispiel: Bild für einen SBV-Flyer

Einfach: „Erstelle ein Bild einer Person mit Behinderung im Büro.“

Genauer: „Erstelle ein Bild einer vielfältigen Arbeitsgruppe, in der Menschen mit unterschiedlichen Behinderungen selbstverständlich zusammenarbeiten.“

Fragen zur Überprüfung von KI-Ergebnissen

Nach der Nutzung von KI kann es hilfreich sein, sich einige Fragen zu stellen:

  • Fehlen bestimmte Perspektiven?
  • Werden Menschen stereotyp dargestellt?
  • Ist die Sprache respektvoll und verständlich?
  • Ist der Text möglichst barrierearm formuliert?

Künstliche Intelligenz ist ein hilfreiches Werkzeug, aber nicht automatisch neutral. Sie kann bestehende gesellschaftliche Muster übernehmen und verstärken. Für die SBV bedeutet das: KI-Anwendungen aufmerksam begleiten, Ergebnisse kritisch prüfen und auf eine inklusive Darstellung achten.

Was außerdem in der Öffentlichkeitsarbeit der SBV relevant ist, wird im Webinar „Betriebliche Öffentlichkeitsarbeit für die SBV“ sowie im Seminar „Schwerbehindertenversammlung und Öffentlichkeitsarbeit der SBV“ behandelt.