- 1. Jugendschutz und Content-Creation: Warum dein Account auf dem Spiel steht
- 2. Wer ist im Jugendmedienschutz eigentlich verantwortlich?
- 3. JMStV, Plattformregeln, JuSchG: Welche Regeln für Content-Creator:innen gelten
- 4. Was ist nach den staatlichen Gesetzen verboten?
- 5. Was ist nach den Nutzungsbedingungen der Plattformen verboten?
- 6. Account-Sperre vermeiden: So schützen sich Content-Creator:innen rechtlich
- 7. Account gesperrt – was jetzt? Schritt für Schritt zum Rechtsschutz
- 8. Häufig gestellte Fragen
Jugendschutz und Content-Creation: Warum dein Account auf dem Spiel steht
Jugendmedienschutz klingt nach einem Thema für Fernsehsender, Filmstudios, die Gaming-Industrie oder Plattenlabels. Tatsächlich betrifft er aber auch Content-Creator:innen ganz unmittelbar. Für sie stellt der Jugendmedienschutz auf zwei Ebenen ein relevantes Risiko dar.
Die erste Ebene betrifft die Plattformen selbst. Hier drohen: Reichweitenbegrenzungen, Altersbeschränkungen, Warnhinweise, Demonetarisierung, die Löschung einzelner Inhalte oder die vollständige Sperrung des Accounts.
Für Creator:innen ist das kein bloßes Moderationsproblem, sondern ein wirtschaftliches Risiko. Wer über Jahre Reichweite, Community und Kooperationen aufgebaut hat, kann durch eine Sperre in kürzester Zeit erhebliche Einnahmeverluste erleiden. Besonders problematisch ist, dass Plattformen häufig nach eigenen Community-Richtlinien und algorithmischen Risikomodellen handeln, die strenger sein können als das staatliche Recht und in der Anwendung nicht immer transparent sind.
Die zweite Ebene ist die staatliche Medienaufsicht. In schwerwiegenderen Fällen können zuständige Behörden einschreiten, Sperrungen anordnen und Bußgelder verhängen.
Jugendmedienschutz kann daher weitreichende Auswirkungen auf die wirtschaftliche Existenz von Creator:innen haben. Wer das Thema unterschätzt, riskiert nicht nur Einschränkungen einzelner Inhalte, sondern im Ernstfall den Verlust des gesamten Accounts und damit eines wesentlichen Teils seiner beruflichen Grundlage.
Wer ist im Jugendmedienschutz eigentlich verantwortlich?
Moralisch ist die Frage umstritten. Gerade bei Creator:innen reicht das Spektrum von der Auffassung, dass kreative Freiheit grundsätzlich Vorrang haben sollte, bis zu der Ansicht, dass mit wachsender Reichweite auch besondere Verantwortung einhergeht. Klar ist jedenfalls: Eltern haben technische und pädagogische Möglichkeiten, den Medienkonsum ihrer Kinder zu begleiten, zu begrenzen und einzuordnen. Ebenso ist der Staat gefordert, Medienkompetenz zu fördern, statt die Verantwortung einseitig auf Creator:innen zu verlagern.
Rechtlich liegt die Verantwortung zunächst bei den Erziehungsberechtigten. Das elterliche Erziehungsrecht ist in Art. 6 Abs. 2 GG verankert und genießt Verfassungsrang. Eltern sind dafür verantwortlich, die Mediennutzung ihrer Kinder pädagogisch so zu regulieren, dass die Kinder keinen Schaden davontragen. Dies begründet übrigens nicht nur die Pflicht, negativ zu regulieren. Kinder und Jugendliche haben auch ein Recht auf digitale Teilhabe, also altersgerechten Zugang zum Internet und Social Media.
Ergänzend tritt der Staat ein: Er unterstützt Erziehungsberechtigte dort, wo deren Schutz allein nicht ausreicht, und setzt dafür den gesetzlichen Rahmen sowie Regulierungsbehörden ein. Gerade im Internet gilt, dass die Erziehungsberechtigten meist nicht alles kontrollieren können, was Kinder konsumieren. Aufgrund staatlicher Vorgaben trifft daher auch Creator:innen und Plattformen eine Pflicht zum Jugendmedienschutz.
Danach gilt: Creator:innen sind nicht die Erziehungsberechtigten ihrer Community. Sie tragen rechtliche Verantwortung für ihre Inhalte, aber keine allgemeine Pflicht, gesellschaftliche Erziehungsdefizite auszugleichen.
JMStV, Plattformregeln, JuSchG: Welche Regeln für Content-Creator:innen gelten
Wer als Creator:in im deutschen Rechtsraum Inhalte veröffentlicht, muss einen Regelungsrahmen aus mehreren Ebenen beachten.
Zentrale gesetzliche Grundlage für Online-Inhalte ist der Jugendmedienschutz-Staatsvertrag (JMStV). Er richtet sich an Anbieter von Telemedien und regelt, welche Inhalte Minderjährigen in welcher Form zugänglich gemacht werden dürfen. Gleichzeitig bildet er die Grundlage für Maßnahmen der staatlichen Medienaufsicht. Auch Content Creator:innen können in diesem Sinne Anbieter von Telemedien sein.
Zu den Telemedien gehören fast alle Angebote im Internet. Insbesondere zählen dazu Blogs und Social-Media-Accounts. Nicht darunter fallen Live-Streamings oder Webradios, die unter den Begriff Rundfunk fallen.
Daneben spielt auch das Jugendschutzgesetz (JuSchG) eine Rolle. Es war ursprünglich stärker auf Trägermedien und den Offline-Bereich zugeschnitten, hat aber inzwischen auch für digitale Angebote Bedeutung. Für einzelne Creator:innen ist es in der Praxis oft weniger unmittelbar relevant als der JMStV, es gehört aber zum weiteren rechtlichen Rahmen des Jugendmedienschutzes.
Besonders wichtig sind in der Praxis außerdem die Plattformregeln. Die Community-Richtlinien von Instagram, TikTok, YouTube und anderen Plattformen gehen in vielen Bereichen über das hinaus, was das staatliche Recht verlangt. Das gilt insbesondere für Nacktheit, sexualisierte Darstellungen oder sonstige „sensible Inhalte“. Zugleich werden diese Regeln häufig weniger transparent und nicht immer konsistent angewendet.
In der Praxis werden Accounts meist nicht wegen eines Gesetzesverstoßes eingeschränkt, sondern wegen (vermeintlicher) Verstöße gegen die Nutzungsbedingungen von Plattformen, die durch KI-Bewertungssysteme festgestellt werden.
Für Content Creator:innen ist deshalb wichtig: Was gesetzlich zulässig ist, kann auf einer Plattform trotzdem unzulässig sein. Wer rechtliche Risiken realistisch einschätzen will, muss deshalb stets beide Ebenen im Blick behalten – das staatliche Jugendmedienschutzrecht und die jeweiligen Plattformregeln.
Was ist nach den staatlichen Gesetzen verboten?
Der JMStV unterscheidet vereinfacht zwischen unzulässigen Inhalten nach § 4 JMStV und entwicklungsbeeinträchtigenden Inhalten nach § 5 JMStV. Unzulässige Inhalte dürfen überhaupt nicht verbreitet werden.
Zu den nach § 4 JMStV generell unzulässigen Angeboten zählen beispielsweise:
- Aufstachelung zu Hass und Gewalt
- Darstellungen schwerer Misshandlungen von Menschen
- Relativierung des Holocausts
- Kriegsverherrlichung
- Kinder- oder tierpornografische Inhalte
- Indizierte Medien (nach § 18 JuSchG)
Entwicklungsbeeinträchtigende Inhalte sind demgegenüber nicht per se verboten; entscheidend ist hier, ob Minderjährige je nach Altersstufe wirksam vor dem Zugang geschützt werden. Für Creator:innen bedeutet das: Nicht jeder „problematische“ Inhalt muss gelöscht werden. Wer aber Inhalte veröffentlicht, die für Kinder oder Jugendliche bestimmter Altersgruppen entwicklungsbeeinträchtigend sein könnten, muss prüfen, ob Schutzmaßnahmen erforderlich sind.
Das Gesetz differenziert bei den Altersstufen zwischen Angeboten ab 6, ab 12, ab 16 und ab 18 Jahren. Schon deshalb lässt sich die Wirkung eines Inhalts nicht abstrakt beantworten: Was für Jugendliche ab 16 Jahren noch zulässig sein kann, kann für jüngere Kinder unzulässig frei zugänglich sein.
Meta bietet Funktionen, mit denen Creator:innen den Zugang selbst altersbezogen beschränken können. Auch TikTok bietet sogenannte „Audience controls“ an, mit der Creator:innen den Zugang zu ihrem Angebot beschränken können.
Für die Frage, was überhaupt die Entwicklung zu einer „eigenverantwortlichen und gemeinschaftsfähigen Persönlichkeit“ beeinträchtigt, kommen gesellschaftliche Vorstellungen, der Kontext des Inhalts und seine konkrete Präsentation in Betracht. Jugendschutz darf nicht schematisch angewendet werden. Nicht jede Nacktdarstellung, nicht jede sexualisierte Ästhetik und nicht jeder provozierende Inhalt sind automatisch unzulässig.
Vorsicht bei Werbung, die sich an Kinder richtet!
§ 6 JMStV setzt enge Grenzen für Werbung. Kinder und Jugendliche sind oft unerfahren und leichtgläubig und werden deshalb besonders geschützt. Werbung, die sich an Kinder und Jugendliche richtet. Verboten sind insbesondere
- Aufrufe zum Kauf, die sich an Kinder richten
- Aufrufe, die Kinder motivieren sollen, ihre Eltern zum Kauf zu überreden
- Werbung für alkoholische Getränke, die sich an Kinder richtet
Bei Maßnahmen der Medienaufsicht gilt außerdem: Creator:innen können sich in der Regel auf Grundrechte berufen (Kunstfreiheit/Meinungsfreiheit/Berufsfreiheit). Deshalb müssen Beschränkungen immer an den Grundrechten gemessen werden.
Ein Instagram-Account, der auch erotische Bilder verbreitet, die entwicklungsbeeinträchtigend auf Kinder wirken, darf von der Medienaufsicht nicht insgesamt verboten werden. Das Verbot muss sich auf einzelne konkrete Inhalte beschränken. Verwaltungsgericht Berlin, Urteil v. 23.02.2026 – VG 32 K 20/23
Was ist nach den Nutzungsbedingungen der Plattformen verboten?
Im Bereich Jugendmedienschutz sind für Creator:innen vor allem die plattformeigenen Nutzungsbedingungen und Sichtbarkeitsregeln von Meta und TikTok relevant. Die Community-Richtlinien und Nutzungsbedingungen sind Allgemeine Geschäftsbedingungen (AGB) im Sinne der §§ 305 ff. BGB. Bei der Anmeldung bei einer Plattform bestätigt man sein Einverständnis, sich an die Plattformen-Regeln zu halten. Besonders aufmerksam sollten Creator:innen sein bei:
- sexualisierten Darstellungen
- Nacktheit
- Gewalt
- Schockbildern
- Drogenbezug
- gefährlichen Stunts
Für die Praxis heißt das: Problematisch sind oft vor allem Grenzfälle – etwa künstlerische Erotik, Fetisch-Ästhetik, provokante Posen, dokumentarische Gewaltdarstellungen oder humoristisch gemeinte Erwachsenenwitze.
Diskriminierung durch KI?
Nicht-binäre und queere Künstler:innen berichten immer wieder, schneller und härter sanktioniert zu werden als vergleichbare heteronormative Inhalte. Das gilt nicht nur, aber besonders dann, wenn es um „kinky“ Darstellungen geht. Auch Frauen erleben, dass Stillfotos, eng anliegende Sportkleidung oder bestimmte Posen automatisch geflaggt werden, während bei heteronormativen Männern oberkörperfreie Bilder kein Problem sind.
Die von den Plattformen zur Filterung eingesetzten KI-Modelle können den Kontext häufig nicht richtig bewerten und stufen deshalb auch Inhalte als jugendgefährdend ein, die eigentlich unbedenklich sind. Dadurch kann es auch zu Diskriminierungen von bestimmten Personengruppen kommen, die von den Plattformen nicht einmal beabsichtigt sein muss. Betroffene sollten sich hiergegen deshalb wehren.
Wir prüfen Ihren Content im Vorfeld und beraten Sie kompetent zu rechtlichen Risiken.
Account-Sperre vermeiden: So schützen sich Content-Creator:innen rechtlich
Prävention ist besser als Reaktion – das gilt im Jugendmedienschutz ganz besonders, weil eine Sperre wirtschaftlichen Schaden anrichten kann, lange bevor ein Rechtsbehelf greift.
- Plattformregeln kennen und ernst nehmen. Die Community-Richtlinien der genutzten Plattformen sollten regelmäßig gelesen werden. Sie ändern sich, und sie sind oft strenger als das staatliche Recht. Was gesetzlich erlaubt ist, kann gegen Plattformregeln verstoßen.
- Plattformeigene Tools aktiv nutzen. Für Inhalte, die Altersverifikation erfordern könnten, als proaktiver Schutz. Wer selbst kennzeichnet, nimmt dem Algorithmus das Heft aus der Hand.
- Eigenständige Alterskennzeichnungen und Hinweise können helfen, sowohl gegenüber Plattformen als auch gegenüber der Medienaufsicht nachzuweisen, dass verantwortungsvoll gehandelt wurde.
- Im Zweifel: Vorab anwaltlich beraten lassen. Gerade bei wiederkehrenden Content-Formaten, die sich in einer rechtlichen Grauzone bewegen könnten, ist eine kurze Beratung günstiger als eine nachträgliche Auseinandersetzung mit der KJM oder ein monatelang gesperrter Account.
Account gesperrt – was jetzt? Schritt für Schritt zum Rechtsschutz
Trotz aller Vorsicht kann es passieren, dass ein Account oder einzelne Inhalte gesperrt werden. Dann kommt es auf schnelles und richtiges Handeln an.
Bei Plattformsperren:
- Sperrzeitpunkt, Begründung und gesamte Kommunikation mit der Plattform dokumentieren
- Inhalte sichern, soweit noch möglich
- Internes Beschwerdeverfahren der Plattform nutzen – seit dem Digital Services Act (DSA) sind Plattformen zu transparenteren Rechtsbehelfen verpflichtet
- Widerspruch einlegen – schriftlich und mit Fristsetzung
- Bei ausbleibender oder unzureichender Reaktion: anwaltliche Hilfe hinzuziehen
- Schnell handeln – Gerichte können Plattformen im Ernstfall durch einstweilige Verfügungen zur Freischaltung zwingen, wenn Anträge schnell gestellt werden
Bei Verfahren der Medienaufsicht:
- Sofort anwaltlichen Rat suchen – nicht abwarten
- Keine Stellungnahmen gegenüber der Behörde ohne rechtliche Begleitung abgeben
- Fristen im Blick behalten – gegen Bescheide der Medienaufsicht kann in der Regel nur innerhalb eines Monats vorgegangen werden
- Dokumentation aller relevanten Inhalte und Kommunikation sicherstellen
Diese Verfahren laufen als Verwaltungsverfahren ab, mit Fristen, formellen Anforderungen und Konsequenzen, die weit über eine einzelne Sperre hinausgehen können.




Schreiben Sie einen Kommentar