Digitales
EU AI Act: Warum Ihre KI-Inhalte bald verschwinden könnten
Stellen Sie sich vor: Sie sind Marketing- oder Social-Media-Manager und posten ein KI-generiertes Bild auf Instagram. Sieht großartig aus, die Likes kommen rein. Und dann – puff – ist der Beitrag weg. Gelöscht. Keine Warnung, keine Erklärung.
Willkommen in der neuen Realität der KI-Kennzeichnung.
Die Plattformen warten nicht auf den
EU AI Act
Der EU AI Act tritt zwar erst am 2. August 2026 mit seinen Transparenzpflichten in Kraft. Aber TikTok und Meta? Die handeln jetzt. Sie erkennen KI-Inhalte automatisch – und fordern aktive Kennzeichnung ein. Wer sich nicht an die Regeln hält, fliegt raus. Zumindest ist die Kontosperrung eine der möglichen Konsequenzen. Da erscheint ein gelöschter Beitrag plötzlich vergleichsweise harmlos.
Übrigens: Ja, auch dieser Blogbeitrag entstand mit KI-Unterstützung. Völlig legitim. Denn sprachlich optimierte Texte interessieren die EU nicht. Warum also die Aufregung?
Deepfakes – das eigentliche Problem
Kennen Sie diese Videos, in denen Prominente Dinge sagen, die sie nie gesagt haben? Oder Bilder von Personen in Situationen, die nie stattfanden? Das sind Deepfakes. Und sie sind der Grund, warum die EU nervös wird.
Deepfakes nutzen KI, um Bilder, Videos oder Audiodateien so zu manipulieren, dass sie echte Menschen täuschend echt nachahmen. Für Betrachtende kaum von der Realität zu unterscheiden. So große Chancen die Technik hier auch bietet – dass eine Kennzeichnung schon aus Gründen der Transparenz das absolute „Bare Minimum“ ist, liegt auf der Hand.
Warum der EU AI Act redaktionelle Qualität belohnt
Nicht jeder KI-Text braucht ein Label. Aber bestimmte schon. Die Faustregel laut EU AI Act: Informieren Sie die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse? Dann müssen Sie offenlegen, dass KI im Spiel war. Das betrifft Nachrichten zu aktuellen Ereignissen, Informationen über politische Entscheidungen oder Gesetzesänderungen, Beiträge zu Gesundheit, Umwelt und Wissenschaft sowie Warnungen und Empfehlungen öffentlicher Stellen. Ihr Werbetext für das neue Produkt? Keine Kennzeichnungspflicht. Die interne Mitteilung ans Team? Auch nicht. Produktbeschreibungen im Online-Shop? Ebenfalls nicht.
Aber jetzt kommt der entscheidende Punkt: Die Kennzeichnungspflicht entfällt komplett, wenn ein Mensch den Inhalt redaktionell kontrolliert und jemand die inhaltliche Verantwortung übernimmt. Seien wir ehrlich – wer KI-Texte ungeprüft veröffentlicht, hat ohnehin ein Qualitätsproblem. Dokumentieren Sie Ihre Prüfschritte und die verwendeten Tools, dann sind Sie auf der sicheren Seite.
Wie Sie Ihr Unternehmen auf den EU AI Act vorbereiten
Genug Theorie. Was tun Sie jetzt konkret? Hier kommt Ihr Fahrplan – in fünf Schritten von „Wir nutzen KI“ zu „Wir haben das im Griff“.
- Schritt eins: Verstehen, wo Sie stehen. Welche Teams arbeiten mit KI-Tools? Für welche Formate? Wo lauern Risiken – bei Pressemitteilungen, Social-Media-Posts, Bildmaterial? Welche Plattform- und Branchenvorgaben gelten für Ihre Inhalte?
- Schritt zwei: Regeln aufstellen. Erarbeiten Sie eine unternehmensweite KI-Policy. Klare Vorgaben zu Einsatz, Prüfung, Kennzeichnung, Urheberrecht und Datenschutz. Legen Sie Freigabeprozesse fest. Definieren Sie Verantwortlichkeiten.
- Schritt drei: Textbausteine entwickeln. Niemand sollte sich spontan eine Kennzeichnungsformulierung ausdenken müssen. Erstellen Sie geprüfte Standardtexte für Website, Newsletter, Social Media, Presse und Co – und stellen Sie sicher, dass auch bei Änderungen alle Teammitglieder stets auf die aktuelle Version Zugriff haben.
- Schritt vier: Team an Bord holen. Schulen Sie Redaktion, Marketing, HR, Corporate Communications. Vermitteln Sie, was redaktionelle Kontrolle bedeutet. Wie man Quellen prüft. Wie man Prompts dokumentiert. Wie man rechtssicher veröffentlicht. Die beste Policy nutzt nichts, wenn niemand sie kennt. Wie Sie Ihre Kolleginnen und Kollegen erfolgreich vom neuen KI-Prozess überzeugen, lesen Sie übrigens hier.
- Schritt fünf: Dranbleiben. Führen Sie Stichproben durch. Werden Inhalte korrekt gekennzeichnet? Wenn nicht – wo hakt’s und warum? Haben sich möglicherweise Plattformregeln geändert oder gar die rechtlichen Vorgaben? Bleiben Sie informiert und passen Sie Ihre Policy lieber einmal mehr an – auch nach dem Inkrafttreten des EU AI Acts.
Wie Sie Ihr Unternehmen auf den EU AI Act vorbereiten
Die Kennzeichnung von KI-Inhalten wird durch den EU AI Act zur Pflicht. Viele Social-Media-Plattformen fordern die Umsetzung bereits. Unternehmen, die jetzt handeln, gelingt etwas, das in der heutigen Zeit keinesfalls selbstverständlich ist: Sie schaffen Rechtssicherheit. Doch vor allen Dingen gewinnen sie etwas, das im Kontext von Social Media, Deepfakes und Filtern nahezu Mangelware geworden ist.
Die Rede ist natürlich von Vertrauen.
Hinweis: Dieser Beitrag stellt keine Rechtsberatung dar. Für Einzelfälle empfehlen wir die Abstimmung mit Ihrer Rechtsabteilung oder einer spezialisierten Kanzlei.
Takeaways
- Kennzeichnungspflicht Basics: KI-Bearbeitung offenlegen. Texte mit öffentlichem Interesse nur kennzeichnen, wenn keine nachweisbare menschliche Redaktion erfolgt
- Praxis vor Technik: Klare Policy, feste Verantwortlichkeiten, geprüfte Textbausteine und Plattform-Workflows sorgen für konsistente Transparenz
- Jetzt starten: Viele Plattformen verlangen bereits jetzt die aktive Kennzeichnung von KI-Inhalten – schulen Sie Ihr Team rechtzeitig

