„Bias“ ist ein englischer Begriff und bedeutet Verzerrung oder Voreingenommenheit. Im Zusammenhang mit Künstlicher Intelligenz (KI) beschreibt er, dass Ergebnisse nicht vollständig neutral sind, sondern bestehende gesellschaftliche Muster, Vorurteile oder Ungleichheiten widerspiegeln können.
KI-Systeme lernen aus großen Datenmengen. In diesen Daten stecken jedoch auch stereotype Darstellungen oder unausgewogene Perspektiven. Dadurch kann es passieren, dass KI solche Muster übernimmt und weiter verstärkt.
KI-Systeme werden mit sehr vielen Texten, Bildern und anderen Daten trainiert. Diese Daten bilden die Gesellschaft ab – einschließlich ihrer Ungleichheiten.
KI erkennt statistische Muster, versteht aber keinen gesellschaftlichen Kontext. Deshalb kann sie bestehende Ungleichheiten übernehmen, ohne sie einordnen oder hinterfragen zu können.
Dass solche Verzerrungen auftreten können, zeigen verschiedene Beispiele:
Diese Beispiele zeigen: KI trifft keine objektiven Entscheidungen. Sie arbeitet mit Wahrscheinlichkeiten auf Basis vorhandener Daten.
Für Vertrauenspersonen ist das Thema relevant, weil KI in immer mehr Bereichen der Arbeitswelt eingesetzt wird, etwa bei:
Menschen mit Behinderungen sind in vielen Datensätzen wenig sichtbar oder werden stereotyp dargestellt. Dadurch kann es zu Benachteiligungen kommen – auch dann, wenn niemand bewusst diskriminieren möchte. Die SBV hat die Aufgabe, Benachteiligungen zu verhindern. Ein grundlegendes Verständnis möglicher KI-bedingter Verzerrungen unterstützt diese Aufgabe.
Auch in der Öffentlichkeitsarbeit nutzen viele Interessenvertretungen inzwischen KI-Werkzeuge – etwa für:
KI kann diese Arbeit erleichtern. Gleichzeitig besteht die Gefahr, dass stereotype Darstellungen entstehen. Beispiele sind etwa:
Deshalb sollten KI-erstellte Inhalte immer geprüft werden: Sind sie inklusiv formuliert? Werden unterschiedliche Lebensrealitäten sichtbar? Ist die Sprache respektvoll und verständlich?
Ein Beispiel für technische Prüfansätze ist das Projekt ABLE (Ableism Bias Language Evaluation) der Aktion Mensch. Die Anwendung analysiert automatisiert Antworten von Chatbots und untersucht, ob diskriminierende oder ableistische Formulierungen auftreten. Ziel ist es, solche Muster sichtbar zu machen und digitale Kommunikation inklusiver zu gestalten. Solche Ansätze können helfen, Sensibilität für ableistische Sprachmuster zu erhöhen – ersetzen jedoch nicht die eigene redaktionelle Prüfung und Verantwortung der Anwenderinnen und Anwender.
Wie eine Anfrage an ein KI-System formuliert wird, beeinflusst das Ergebnis.
Einfach: „Erstelle eine Einladung zur Schwerbehindertenversammlung.“
Genauer: „Erstelle eine Einladung zur Schwerbehindertenversammlung in verständlicher und inklusiver Sprache. Achte auf eine respektvolle Darstellung von Menschen mit unterschiedlichen Behinderungen.“
Einfach: „Erstelle ein Bild einer Person mit Behinderung im Büro.“
Genauer: „Erstelle ein Bild einer vielfältigen Arbeitsgruppe, in der Menschen mit unterschiedlichen Behinderungen selbstverständlich zusammenarbeiten.“
Nach der Nutzung von KI kann es hilfreich sein, sich einige Fragen zu stellen:
Künstliche Intelligenz ist ein hilfreiches Werkzeug, aber nicht automatisch neutral. Sie kann bestehende gesellschaftliche Muster übernehmen und verstärken. Für die SBV bedeutet das: KI-Anwendungen aufmerksam begleiten, Ergebnisse kritisch prüfen und auf eine inklusive Darstellung achten.
Was außerdem in der Öffentlichkeitsarbeit der SBV relevant ist, wird im Webinar „Betriebliche Öffentlichkeitsarbeit für die SBV“ sowie im Seminar „Schwerbehindertenversammlung und Öffentlichkeitsarbeit der SBV“ behandelt.