Nowa propozycja regulacji dotyczącej szkodliwych treści online dla małoletnich
Opublikowano 24th czerwiec 2025

Ministerstwo Cyfryzacji proponuje nową ustawę mającą na celu ograniczenie dostępu małoletnich do szkodliwych treści w internecie. Projekt zawiera definicję „treści nieodpowiednich” oraz potencjalne skutki regulacyjne. Jakie są kluczowe informacje
dla operatorów mediów cyfrowych, platform streamingowych, dostawców usług internetowych i twórców treści?
Czym są "treści nieodpowiednie"?
Definicja „treści nieodpowiednich” – obecnie na etapie konsultacji – obejmuje: „Materiały prezentowane w internecie, które przedstawiają zachowania sprzeczne z powszechnie akceptowanymi normami społecznymi, uznane za demoralizujące i potencjalnie szkodliwe dla rozwoju psychicznego, fizycznego lub społecznego małoletnich.”
Z projektu wynika, że niektóre treści będą wyłączone spod zakazu, w tym:
- Materiały naukowe
- Treści edukacyjne
- Działalność artystyczna
- Treści, które już obecnie stanowią przestępstwo
Zakres potencjalnych obowiązków
Projektowana regulacja wprowadza szereg obowiązków, które będą miały istotne konsekwencje operacyjne i zgodnościowe dla podmiotów rozpowszechniających treści online. Pomimo trwających konsultacji, projekt jasno określa kierunek działań regulacyjnych, koncentrując się na proaktywnej ochronie małoletnich w przestrzeni cyfrowej.
Trzy kluczowe elementy projektu to:
- Mechanizmy moderacji treści – w celu blokowania lub ograniczania dostępu do określonych szkodliwych treści.
- Narzędzia weryfikacji wieku – mogą one stać się obowiązkowe.
- Potencjalna odpowiedzialność za brak zgodności z przepisami – również dla platform zagranicznych kierujących swoje usługi do użytkowników w Polsce.
System identyfikacji i blokowania treści
- Projekt nakłada na platformy i dostawców usług obowiązek monitorowania i ograniczania dostępu do treści szkodliwych dla małoletnich, nawet jeśli treści te nie są obecnie nielegalne.
- Dotyczy to materiałów: sprzecznych z normami społecznymi, o charakterze demoralizującym, mogących wpływać negatywnie na rozwój psychiczny, fizyczny lub społeczny dzieci i młodzieży.
- Jest to regulacja o charakterze prewencyjnym, a nie tylko sankcyjnym – podobna do regulacji Digital Services Act (DSA), lecz skupiona na ochronie dzieci.
Mechanizmy weryfikacji wieku i filtrowania treści
- Proponowane przepisy przewidują wymogi techniczne dotyczące wdrożenia: narzędzi weryfikacji wieku – aby ograniczyć dostęp nieletnich do treści dla dorosłych (np. przemoc, używki, pornografia), systemów filtrowania treści – umożliwiających automatyczne rozpoznawanie i separację materiałów szkodliwych.
- Choć konkretne standardy techniczne nie zostały jeszcze określone, platformy mogą być zobowiązane do wdrożenia silnych, zgodnych z RODO rozwiązań, takich jak technologie weryfikacji wieku lub systemy moderacji oparte na AI.
- Nowe przepisy mogą również wprowadzić tzw. obowiązek należytej staranności – czyli wymóg, aby platformy podejmowały „rozsądne i proporcjonalne” działania w celu uniemożliwienia dzieciom dostępu do szkodliwych treści. Brak takich działań może skutkować: karami finansowymi, szkodami wizerunkowymi, a nawet odpowiedzialnością cywilną, jeśli dostęp do takich treści spowoduje realną szkodę.
Zastosowanie do zagranicznych dostawców usług
Zakres nowej regulacji nie ogranicza się do podmiotów posiadających siedzibę w Polsce. Ustawa będzie mieć eksterytorialny charakter – co oznacza, że obowiązki będą również dotyczyć zagranicznych platform, jeżeli:
- kierują one swoje usługi do polskich użytkowników (np. treści w języku polskim, płatności w PLN),
- lub ich usługi są dostępne dla małoletnich z Polski, nawet bez aktywnej promocji.
Co dalej?
- Projekt ustawy przechodzi obecnie konsultacje wewnątrzrządowe oraz społeczne. Ministerstwo deklaruje gotowość do dalszych rozmów – zarówno
w zakresie definicji treści nieodpowiednich, jak i technicznych środków egzekwowania przepisów. - Jeśli nie uda się wypracować szerszego konsensusu w sprawie tzw. patotreści, ostateczna wersja ustawy może ograniczyć się jedynie do regulowania treści pornograficznych.
- Zobaczymy, czy te działania przełożą się na konkretne inicjatywy legislacyjne i w jakim kierunku one pójdą.
Międzynarodowi operatorzy – szczególnie z sektora VOD, social media i dostawców usług internetowych – powinni: ocenić stopień ekspozycji na rynek polski, przeanalizować, czy ich obecne systemy moderacji i ochrony dzieci są zgodne z założeniami projektu, wdrożyć lub zaplanować dostosowanie polityk zgodności, procesów technologicznych i dokumentacji regulacyjnej.