Generative KI hat die Content-Produktion radikal verändert. Was vor wenigen Jahren noch nach Science-Fiction klang, ist heute Teil des kreativen Alltags in Marketingabteilungen und Agenturen. Fotorealistische Szenen, virtuelle Markenbotschafter, synthetische Stimmen oder vollständig KI-generierte Kampagnenvisuals.
Mit den neuen Möglichkeiten wächst jedoch auch die Verantwortung. Denn je realistischer AI-Content wird, desto wichtiger wird die Frage: Ist das noch kreative Innovation oder beginnt hier die Täuschung? Und müssen die Inhalte gekennzeichnet werden?
Wir haben klare Guidelines formuliert, wie mit KI-Inhalten auf Social Media umzugehen ist und wann eine Kennzeichnung erforderlich ist.
Ist AI-Content per se verwerflich?
Kurz gesagt: Nein.
KI ist ein Werkzeug. Nicht mehr, aber auch nicht weniger. Sie kann Prozesse effizienter machen, neue kreative Räume eröffnen und visuelle Welten erschaffen, die ohne KI schlicht nicht realisierbar wären.
Problematisch wird es nicht durch die Technologie selbst, sondern durch ihren Einsatz.
AI-Content wird dann kritisch, wenn er:
- reale Ereignisse vortäuscht, die nie stattgefunden haben
- Produkteigenschaften suggeriert, die es so nicht gibt
- reale Personen ohne Einwilligung imitiert (Gesicht oder Stimme)
- in sensiblen Kontexten (Gesundheit, Politik, Krisen) zur Irreführung beiträgt
Das Risiko liegt also nicht in der Nutzung von KI, sondern in mangelnder Transparenz und fehlenden Leitplanken.
Wann täuscht AI Content User?
Täuschung entsteht dann, wenn Nutzer davon ausgehen, dass sie eine reale Situation sehen, obwohl diese vollständig oder wesentlich künstlich erzeugt wurde.
Beispiele:
- Ein fotorealistisches Setup, das physisch nie existiert hat.
- Ein „Event“-Visual, das so nie stattgefunden hat.
- Ein KI-generiertes Gesicht, das als reale Person wahrgenommen wird.
- Vorher-Nachher-Darstellungen, die durch KI-Bearbeitung unrealistische Ergebnisse zeigen.
Gerade bei Markenkommunikation ist Vertrauen eine der wertvollsten Währungen. Wenn Konsumenten das Gefühl bekommen, bewusst in die Irre geführt zu werden, entsteht ein Reputationsrisiko, das schwerer wiegt als jeder kurzfristige Performance-Gewinn.
Transparenz ist daher kein rechtlicher Formalismus, sondern Markenstrategie.
Muss AI Content gekennzeichnet werden?
Aktuell gibt es noch kein einheitliches globales KI-Kennzeichnungsgesetz für Social Media. Allerdings greifen bereits heute:
- Plattformrichtlinien (z. B. Instagram, TikTok, YouTube)
- Werberecht (Stichwort Irreführung, Schleichwerbung)
- EU-Regularien wie der Digital Services Act und der EU-KI-Verordnung (mit verbindlicher Kennzeichnungspflicht ab 02.08.2026)
Unabhängig von der finalen Gesetzeslage gilt für uns ein klarer Grundsatz:
Wenn KI für die Wahrnehmung des Inhalts wesentlich ist, sollte sie gekennzeichnet werden.
Wir unterscheiden dabei drei Stufen:
- Vollständig KI-generierter Content (K1)
Komplett generierte Bilder, Videos oder Avatare ohne reale Aufnahme.
→ Kennzeichnung immer erforderlich.
- Teilweise KI-generierter Content (K2)
Reale Aufnahmen, die wesentlich durch KI verändert wurden etwa durch:
- hinzugefügte Hintergründe oder Objekte
- KI-generierte Personen
- synthetische Stimmen
→ Kennzeichnung erforderlich, wenn diese Elemente für die Wahrnehmung prägend sind.
- KI im Hintergrund (K3)
KI wurde nur zur Ideenfindung, Textunterstützung oder internen Strukturierung genutzt.
→ Keine Kennzeichnung im Post notwendig, da der sichtbare Content real ist.
Diese Differenzierung ist entscheidend. Nicht jede Nutzung von KI muss kommuniziert werden. Aber jede sichtbare, wahrnehmungsprägende Generierung sollte transparent gemacht werden.
Wie sollte gekennzeichnet werden?
Wo möglich, sollten die plattformeigenen Labels genutzt werden:
- Instagram & Facebook: „KI-Info“
- TikTok: „KI-generierter Inhalt“
- YouTube: „Veränderte Inhalte“
Diese können nativ auf den Plattformen zu den Beiträgen hinzugefügt werden, sowohl beim Posten selbst in der App, als auch als nachträgliche Bearbeitung (z.B. nach Posten über Drittanbieter Publishing-Tools).
Ist eine Kennzeichnung auf der Plattform nicht möglich, sollten Hinweise in der Caption oder im Visual selbst ergänzt werden, zum Beispiel:
- „Dieses Bild wurde mit KI erstellt.“
- „KI-generierte Visualisierung zur Illustration.“
- „Das Voice-over wurde mit einer KI-Stimme erzeugt.“
Wichtig ist: Die Kennzeichnung soll klar sein. Es geht nicht darum, KI zu problematisieren oder davor zu warnen, sondern einfach Transparenz herzustellen.
Unser Fazit
AI-Content ist weder per se problematisch noch ein Freifahrtschein.
Er ist ein mächtiges kreatives Werkzeug mit ebenso großer Verantwortung.
Marken sollten sich drei Fragen stellen:
- Würde sich unsere Community getäuscht fühlen, wenn sie wüsste, dass dieser Inhalt KI-generiert ist?
- Ist die KI für die Wahrnehmung des Inhalts wesentlich?
- Würden wir denselben Inhalt auch ohne KI guten Gewissens veröffentlichen?
Transparenz schafft Vertrauen. Und Vertrauen ist langfristig wertvoller als jeder kurzfristige „Wow-Effekt“ durch perfekte synthetische Bilder.
Die Zukunft von Social Media wird hybrid sein: real und generiert.
Unsere Aufgabe als Agenturen und Marken ist es, diese Zukunft verantwortungsvoll zu gestalten.

Autor: Christoph Putz, Consultant





