KI-Regulierung: Pflichten, Risiken, Kennzeichnung, Recht

Avatar
Lisa Ernst · 21.09.2025 · Technik · 5 min

Die Einführung des EU AI Act stellt Creator und Teams im DACH-Raum vor neue Herausforderungen bezüglich Kennzeichnung, Urheberrecht und Dokumentation. Seit dem 01.08.2024 ist das Gesetz in Kraft, mit schrittweisen Pflichten bis 2027. Besonders relevant sind die Transparenz- und Copyright-Pflichten für General-Purpose-AI (GPAI), die am 02.08.2025 wirksam wurden.

EU AI Act Overview

Der EU AI Act ist das erste umfassende KI-Gesetz der EU. Er etabliert risikobasierte Regeln, die von Verboten bis zu Transparenzpflichten reichen. Seit dem 02.08.2025 adressiert er auch GPAI-Modelle, wie große Sprachmodelle, mit spezifischen Anforderungen. Das Gesetz zielt darauf ab, Vertrauen, Urheberrechtskonformität und Nachvollziehbarkeit im Umgang mit KI zu sichern.

Artikel 50 des EU AI Act verpflichtet zur Kennzeichnung von KI-Interaktionen und synthetischen oder manipulierten Inhalten (Deepfakes, bestimmte Textfälle) als künstlich. Diese Kennzeichnung muss technisch erkennbar sein, beispielsweise durch Metadaten oder Wasserzeichen. Für GPAI-Provider fordert Artikel 53 Transparenz, einschließlich einer verständlichen Zusammenfassung der Trainingsdaten, sowie die Einhaltung des Urheberrechts. Bei systemischem Risiko kommen zusätzliche Pflichten aus Artikel 55 hinzu.

Plattformen wie YouTube haben bereits eigene Richtlinien eingeführt. YouTube verlangt die klare Deklaration von realistisch veränderten oder synthetischen Inhalten. Bei fehlender Offenlegung kann YouTube die Inhalte selbst labeln. Als technische Lösung für Medienherkunft etabliert sich C2PA/Content Credentials, ein Standard für manipulationssichere Herkunftsinformationen.

Im DACH-Kontext ist zu beachten, dass die Schweiz, obwohl kein EU-Mitglied, seit dem 01.09.2023 ein revidiertes Datenschutzgesetz (nDSG) hat, das Unternehmen zu moderner, transparenter Datenbearbeitung verpflichtet.

Implementation & Timeline

Die Chronologie der Implementierung des EU AI Act ist klar definiert: Am 12.07.2024 erfolgte die Veröffentlichung im Amtsblatt. Das Gesetz trat am 01.08.2024 in Kraft, jedoch noch ohne anwendbare Pflichten. Ab dem 02.02.2025 werden Verbote bestimmter KI-Praktiken und KI-Literacy wirksam. Die GPAI-Regeln, Governance, Vertraulichkeit und der Sanktionsrahmen traten am 02.08.2025 in Kraft. Gleichzeitig müssen die Mitgliedstaaten Aufsichtsbehörden benennen und Bußgeldregeln festlegen.

Parallel dazu veröffentlichte die EU am 10.07.2025 den freiwilligen, aber offiziell anerkannten Code of Practice für GPAI, der Unternehmen einen leichteren Nachweis der Pflichterfüllung ermöglicht. Am 24.07.2025 folgte die verbindliche Vorlage der EU-Kommission für die öffentliche Zusammenfassung der Trainingsinhalte gemäß Art. 53(1)(d), die zwingend zu verwenden ist.

YouTube führte 2024/2025 die Pflicht zur Offenlegung realistisch synthetischer Inhalte ein. Bei sensiblen Themen werden Labels prominenter angezeigt. Die Monetarisierung bleibt möglich, sofern die Inhalte die Partner- und Werberichtlinien einhalten.

Quelle: YouTube

Impact & Compliance

Die EU setzt auf frühe, ausführbare Regeln, um Vertrauen, Urheberrechtskonformität und Nachvollziehbarkeit zu sichern. Insbesondere bei GPAI geht es um einen Mindeststandard an Dokumentation und Copyright-Respekt, einschließlich TDM-Opt-outs und Rechtevorbehalten. Die Kommission bestätigte die Einhaltung des Zeitplans trotz Branchenappellen zur Verzögerung und stellte begleitende Hilfsdokumente wie den Code of Practice und Vorlagen bereit.

Plattformen wie YouTube schaffen parallele Transparenz für Zuschauer, ohne KI-Inhalte pauschal zu bestrafen. Statt eines Banns werden Labels verwendet, mit einem stärkeren Fokus auf Originalität und Qualität. Dies zeigt sich in den Richtlinien zur Monetarisierung, die AI-Inhalte nicht grundsätzlich ausschließen, sondern an die Einhaltung allgemeiner Richtlinien knüpfen.

Quelle: YouTube

Für Anbieter von GPAI oder Fine-Tuning bedeutet dies die Notwendigkeit einer belastbaren Dokumentation (Technik, Copyright-Policy) und einer öffentlichen, verständlichen Trainingsdaten-Zusammenfassung nach EU-Template. Content-Produzenten müssen realistisch synthetische Passagen sichtbar kennzeichnen und sollten Content Credentials (C2PA) als technischen Herkunftsnachweis in Betracht ziehen. Die Pflege von „Model Cards“ oder „System Cards“ dient als bewährtes Transparenzartefakt zur Einordnung von Fähigkeiten, Grenzen und Risiken.

Im DACH-Raum bleibt das Schweizer nDSG separat relevant. Unternehmen müssen ihre Prozesse so planen, dass sowohl der EU AI Act (bei Zielmarkt EU) als auch das nDSG (bei Bezug zur Schweiz) eingehalten werden. Der Rahmen für Bußgelder nach dem AI Act wurde mit bis zu 35 Mio. EUR bzw. 7% des weltweiten Jahresumsatzes festgelegt; die Mitgliedstaaten müssen die konkrete Durchsetzung regeln.

Wichtige Fristen und Meilensteine markieren den schrittweisen Übergang zur vollständigen Anwendung des EU AI Act.

Quelle: eastmidlandsbusinesslink.co.uk

Wichtige Fristen und Meilensteine markieren den schrittweisen Übergang zur vollständigen Anwendung des EU AI Act.

Analysis & Misconceptions

Fakt ist, dass die GPAI-Pflichten (Art. 53 ff.) seit dem 02.08.2025 gelten. Der Code of Practice dient als anerkannte Nachweis-Schiene, und die Trainingsdaten-Zusammenfassung ist nach EU-Vorlage zu veröffentlichen. YouTube verlangt die Offenlegung realistisch synthetischer Inhalte und kann bei Bedarf eigenständig kennzeichnen. Die Monetarisierung hängt von generellen Richtlinien ab; AI ist nicht per se ausgeschlossen.

Es ist unklar, wie konsistent Plattform-Labels, C2PA-Metadaten und zukünftige Erkennungssysteme zusammenspielen werden. Die EU nennt mehrere technische Optionen (Wasserzeichen, Metadaten, Kryptografie), ohne eine einzelne Pflichttechnologie zu fixieren. Behauptungen, die EU habe Fristen verschoben, sind falsch; die Kommission bestätigte explizit, dass der Zeitplan gilt. Ebenso ist die Annahme, AI-Videos seien auf YouTube grundsätzlich demonetarisiert, irreführend; entscheidend sind Originalität, Richtlinieneinhaltung und Offenlegung.

Die Einhaltung der neuen KI-Vorschriften erfordert umfassende Anstrengungen und Anpassungen in Unternehmen.

Quelle: techzeitgeist.de

Die Einhaltung der neuen KI-Vorschriften erfordert umfassende Anstrengungen und Anpassungen in Unternehmen.

Branchenverbände und einzelne Regierungen forderten eine Pause aufgrund der Komplexität und Kosten. Die Kommission hielt dagegen und setzte auf begleitende Leitlinien und den Code of Practice, um die Rechtsklarheit zu erhöhen. Medien und Fachverbände sehen in den klaren Pflichten, wie den Trainingsdaten-Zusammenfassungen, eine Chance, Urheberrechte sichtbarer zu machen und Missverständnisse abzubauen.

Future Outlook

Offene Fragen betreffen die Interoperabilität von Plattform-Labels, C2PA und zukünftigen EU-Vorgaben für maschinenlesbare Kennzeichnung. Die EU arbeitet an weiteren Leitlinien, unter anderem zu Art. 50, und sammelt Input zur Umsetzung. Ebenso ist offen, wie konsequent Aufsichten die Trainingsdaten-Zusammenfassungen prüfen und in welchen Abständen Aktualisierungen erwartet werden.

Der risikobasierte Ansatz des EU AI Act klassifiziert KI-Systeme nach ihrem potenziellen Risiko für Grundrechte und Sicherheit.

Quelle: haufe-akademie.de

Der risikobasierte Ansatz des EU AI Act klassifiziert KI-Systeme nach ihrem potenziellen Risiko für Grundrechte und Sicherheit.

Die Richtung ist klar: Sichtbarkeit statt Rätselraten. Wer Modelle entwickelt, muss verständlich dokumentieren und Urheberrechte respektieren. Wer Inhalte veröffentlicht, kennzeichnet realistische KI-Anteile verlässlich und setzt, wo möglich, auf robuste Herkunftsnachweise. Mit dem Code of Practice, YouTube-Labels und C2PA stehen bereits praktikable Werkzeuge zur Verfügung, die es ermöglichen, Vertrauen und Reichweite als gemeinsame Währung zu begreifen.

Teilen Sie doch unseren Beitrag!