Von: Bernd Stein, Dipl.-Ing.
Ein Video kursiert im Intranet: Die Geschäftsführung kündigt angeblich eine Entlassungswelle an. Sekunden später breitet sich Unruhe aus – bis sich herausstellt: Das Video ist eine Fälschung. Eine KI hat Stimme und Gesicht täuschend echt imitiert.
Was vor wenigen Jahren noch nach Science-Fiction klang, ist heute bittere Realität. Deepfakes – also KI-generierte oder manipulierte Bild-, Ton- und Videodateien – bedrohen die Glaubwürdigkeit betrieblicher Kommunikation, gefährden den Ruf von Beschäftigten und Unternehmen und können sogar Arbeitsabläufe sabotieren.
Deepfakes greifen in grundlegende Rechte ein. Sie berühren das allgemeine Persönlichkeitsrecht, das Recht am eigenen Bild und Wort sowie den Datenschutz. Wird eine Person ohne Zustimmung in verfälschter Form dargestellt oder ihre Stimme imitiert, ist das in aller Regel rechtswidrig.
Auch urheberrechtliche Bestimmungen können betroffen sein, wenn geschützte Werke bearbeitet oder für das Training von KI-Systemen genutzt werden. Zudem drohen strafrechtliche Konsequenzen, etwa wegen Verleumdung, Beleidigung oder Betrug. Der Gesetzgeber reagiert: Eine neue Strafnorm soll künftig Deepfakes ausdrücklich als eigenständigen Tatbestand erfassen und die Verbreitung manipulierter Inhalte unter Strafe stellen.
Deepfakes basieren meist auf biometrischen Daten wie Gesicht, Stimme oder Gestik. Diese gelten nach DSGVO als besonders schutzwürdig und dürfen nur mit ausdrücklicher, informierter Einwilligung verarbeitet werden.
Sobald im Unternehmen Systeme zur Erstellung, Erkennung oder Analyse solcher Inhalte eingesetzt werden, ist der Betriebsrat zu beteiligen. Nach § 87 Abs. 1 Nr. 6 BetrVG besteht ein Mitbestimmungsrecht, wenn eine technische Einrichtung zur Überwachung oder Analyse von Verhalten und Leistung geeignet ist.
Die wachsende Gefahr durch Deepfakes – von Täuschungsversuchen bis zur digitalen Belästigung – verlangt eine aktive Rolle der Interessenvertretungen. Entscheidend sind vier Handlungsfelder:
Deepfakes werden zunehmend als Instrument zur digitalen Belästigung oder Rufschädigung eingesetzt. Betriebsräte sollten darauf hinwirken, dass Unternehmensrichtlinien und Verhaltenskodizes dies ausdrücklich als schwere Form der Belästigung einstufen.
Erforderlich sind vertrauliche Meldekanäle, klare Sanktionen und psychologische Unterstützungsangebote. Ein Null-Toleranz-Prinzip sollte gelten – auch innerhalb der eigenen Gremien.
Da Deepfakes nur schwer zu erkennen sind, sollten Beschäftigte regelmäßig geschult werden. Wichtig sind praxisnahe Trainings zur Erkennung auffälliger Kommunikationsmuster, zur Überprüfung von ungewöhnlichen Anweisungen sowie zur sicheren Verifizierung über alternative, bekannte Kanäle.
Ein festgelegtes Rückruf- oder Vier-Augen-Prinzip kann helfen, Schäden zu verhindern. Gute Schulungskonzepte schützen zudem Beschäftigte vor unberechtigter Haftung bei Betrugsfällen.
Der Betriebsrat sollte sicherstellen, dass der Einsatz von KI-Systemen und die Nutzung biometrischer Daten transparent geregelt sind. Werden KI-generierte Inhalte wie Schulungsvideos oder Sprachsimulationen verwendet, müssen diese klar als solche gekennzeichnet sein. Die betroffenen Beschäftigten sind vorher umfassend zu informieren und müssen ihre Einwilligung erteilen.
Deepfakes können Bewerbungsverfahren manipulieren oder interne Ermittlungen verfälschen. HR-Abteilungen sollten auf Mehrfaktor-Authentifizierung setzen, um gefälschte Bewerbungen zu verhindern.
Zugleich ist sicherzustellen, dass audiovisuelle Beweise in Disziplinarverfahren oder internen Untersuchungen nur nach technischer und forensischer Überprüfung verwendet werden dürfen.
Deepfakes sind kein technischer Spaß, sondern eine wachsende Bedrohung für Vertrauen, Sicherheit und Integrität im Betrieb. Unternehmen und Interessenvertretungen müssen technische, organisatorische und rechtliche Schutzmechanismen kombinieren, um glaubwürdige Kommunikation sicherzustellen.
Betriebsräte spielen dabei eine Schlüsselrolle: Sie können durch klare Regelungen, Schulungen und Datenschutzkonzepte dafür sorgen, dass Beschäftigte geschützt bleiben – und Wahrheit im digitalen Raum eine Chance hat.