Mit der neuen EU-Verordnung über künstliche Intelligenz (KI-VO), die am 1. August 2024 in Kraft getreten ist, beginnt eine neue Ära der Regulierung von KI-Systemen in Europa. Besonders im Fokus steht Artikel 50 der Verordnung, der ab dem 2. August 2026 umfassende Transparenz- und Kennzeichnungspflichten für KI-generierte Inhalte vorschreibt. Die Bundesrechtsanwaltskammer (BRAK) hat hierzu in ihrer Stellungnahme Nr. 06/2025 eine differenzierte und kritische Position veröffentlicht.
Was regelt Artikel 50 KI-VO?
Artikel 50 der KI-VO verpflichtet Anbieter und Betreiber von KI-Systemen dazu, Nutzer klar und verständlich darüber zu informieren, wenn sie mit einem KI-System interagieren oder wenn Inhalte durch KI erzeugt wurden. Die wichtigsten Punkte:
- Erkennbarkeit von KI-Interaktionen: Nutzer müssen wissen, wenn sie mit einem KI-System kommunizieren – es sei denn, dies ist offensichtlich.
- Kennzeichnung synthetischer Inhalte: KI-generierte Texte, Bilder, Videos und Audios müssen maschinenlesbar und für Menschen verständlich als künstlich erzeugt oder manipuliert gekennzeichnet werden.
- Offenlegung von Deepfakes: Inhalte, die täuschend echt wirken, aber durch KI manipuliert wurden, müssen explizit als solche gekennzeichnet sein.
Diese Regelungen gelten grundsätzlich für alle Anbieter – unabhängig davon, ob es sich um Unternehmen, Behörden oder Privatpersonen handelt.
Die BRAK fordert: Weite Auslegung der Kennzeichnungspflicht
Die BRAK spricht sich in ihrer Stellungnahme für eine strenge und weite Auslegung der Kennzeichnungspflichten aus. Sie argumentiert, dass auch Inhalte, die privat, ehrenamtlich oder im gesellschaftspolitischen Kontext erstellt wurden, kennzeichnungspflichtig sein sollten. Ziel sei es, Irreführung zu vermeiden und das Vertrauen in digitale Inhalte zu stärken
Zudem fordert die BRAK:
- Eine klare Definition von Deepfakes, die auch subtile Manipulationen umfasst.
- Eine verwendungsbezogene Auslegung der Kennzeichnungspflicht – entscheidend sei nicht, wer den Inhalt erstellt, sondern wie und wo er verwendet wird.
- Eine nationale Ergänzung der EU-Regelung, um Lücken zu schließen und den Verbraucherschutz zu stärken.
Emotionserkennung: Ein datenschutzrechtliches Risiko
Besonders kritisch sieht die BRAK den Einsatz von Emotionserkennungssystemen und biometrischen Kategorisierungstechnologien. Diese Systeme analysieren Mimik, Stimme oder Verhalten, um Rückschlüsse auf Emotionen oder Persönlichkeitsmerkmale zu ziehen. Die BRAK warnt:
„Solche Systeme greifen tief in die Privatsphäre ein und bergen erhebliche Risiken der Diskriminierung, Fehlinterpretation und Überwachung.“
Ein Beispiel: Wenn in Microsoft Teams Meetings automatisch Emotionen erkannt und mit Transkripten verknüpft werden, könnten Vorgesetzte Rückschlüsse auf die Stimmung einzelner Mitarbeitender ziehen – mit potenziell gravierenden Folgen für das Arbeitsklima und die Persönlichkeitsrechte.
Private Rechtsdurchsetzung: Chancen und Risiken
Die BRAK fordert auch eine Stärkung der privaten Rechtsdurchsetzung. Einzelpersonen sollen die Möglichkeit haben, Verstöße gegen die KI-VO zivilrechtlich zu verfolgen – etwa durch:
- Erweiterung des Wettbewerbsrechts
- Privatrechtliche Klagemöglichkeiten
- Einführung eines eigenständigen Anspruchs nach dem Vorbild von Art. 82 DSGVO
Gleichzeitig warnt die BRAK vor Missbrauchspotenzial: Abmahnungen könnten gezielt eingesetzt werden, um Druck auf Unternehmen oder Einzelpersonen auszuüben. Deshalb sei eine sorgfältige gesetzliche Ausgestaltung notwendig, um Abmahnmissbrauch zu verhindern.
Fazit: Transparenz ist Pflicht – aber mit Augenmaß
Die KI-VO ist ein bedeutender Schritt hin zu mehr Transparenz und Verantwortung im Umgang mit künstlicher Intelligenz. Die BRAK fordert zu Recht eine konsequente Umsetzung – aber auch eine differenzierte Betrachtung, um Grundrechte zu schützen und Missbrauch zu verhindern.
Die kommenden Monate werden zeigen, wie die EU-Mitgliedstaaten und insbesondere Deutschland diese Vorgaben umsetzen – und ob die Forderungen der BRAK Gehör finden.
Quellen: