Nowa propozycja regulacji dotyczącej szkodliwych treści online dla małoletnich

Opublikowano 24th czerwiec 2025

Ministerstwo Cyfryzacji proponuje nową ustawę mającą na celu ograniczenie dostępu małoletnich do szkodliwych treści w internecie. Projekt zawiera definicję „treści nieodpowiednich” oraz potencjalne skutki regulacyjne. Jakie są kluczowe informacje
dla operatorów mediów cyfrowych, platform streamingowych, dostawców usług internetowych i twórców treści?

Czym są "treści nieodpowiednie"? 

Definicja „treści nieodpowiednich” – obecnie na etapie konsultacji – obejmuje: „Materiały prezentowane w internecie, które przedstawiają zachowania sprzeczne z powszechnie akceptowanymi normami społecznymi, uznane za demoralizujące i potencjalnie szkodliwe dla rozwoju psychicznego, fizycznego lub społecznego małoletnich.”
 

Z projektu wynika, że niektóre treści będą wyłączone spod zakazu, w tym:

  • Materiały naukowe
  • Treści edukacyjne
  • Działalność artystyczna
  • Treści, które już obecnie stanowią przestępstwo

 

Zakres potencjalnych obowiązków

Projektowana regulacja wprowadza szereg obowiązków, które będą miały istotne konsekwencje operacyjne i zgodnościowe dla podmiotów rozpowszechniających treści online. Pomimo trwających konsultacji, projekt jasno określa kierunek działań regulacyjnych, koncentrując się na proaktywnej ochronie małoletnich w przestrzeni cyfrowej.


Trzy kluczowe elementy projektu to:

  • Mechanizmy moderacji treści – w celu blokowania lub ograniczania dostępu do określonych szkodliwych treści.
  • Narzędzia weryfikacji wieku – mogą one stać się obowiązkowe.
  • Potencjalna odpowiedzialność za brak zgodności z przepisami – również dla platform zagranicznych kierujących swoje usługi do użytkowników w Polsce.
     

System identyfikacji i blokowania treści

  • Projekt nakłada na platformy i dostawców usług obowiązek monitorowania i ograniczania dostępu do treści szkodliwych dla małoletnich, nawet jeśli treści te nie są obecnie nielegalne.
  • Dotyczy to materiałów: sprzecznych z normami społecznymi, o charakterze demoralizującym, mogących wpływać negatywnie na rozwój psychiczny, fizyczny lub społeczny dzieci i młodzieży.
  • Jest to regulacja o charakterze prewencyjnym, a nie tylko sankcyjnym – podobna do regulacji Digital Services Act (DSA), lecz skupiona na ochronie dzieci.

 

Mechanizmy weryfikacji wieku i filtrowania treści

  • Proponowane przepisy przewidują wymogi techniczne dotyczące wdrożenia: narzędzi weryfikacji wieku – aby ograniczyć dostęp nieletnich do treści dla dorosłych (np. przemoc, używki, pornografia), systemów filtrowania treści – umożliwiających automatyczne rozpoznawanie i separację materiałów szkodliwych.
  • Choć konkretne standardy techniczne nie zostały jeszcze określone, platformy mogą być zobowiązane do wdrożenia silnych, zgodnych z RODO rozwiązań, takich jak technologie weryfikacji wieku lub systemy moderacji oparte na AI.
  • Nowe przepisy mogą również wprowadzić tzw. obowiązek należytej staranności – czyli wymóg, aby platformy podejmowały „rozsądne i proporcjonalne” działania w celu uniemożliwienia dzieciom dostępu do szkodliwych treści. Brak takich działań może skutkować: karami finansowymi, szkodami wizerunkowymi, a nawet odpowiedzialnością cywilną, jeśli dostęp do takich treści spowoduje realną szkodę.

 

Zastosowanie do zagranicznych dostawców usług
 

Zakres nowej regulacji nie ogranicza się do podmiotów posiadających siedzibę w Polsce. Ustawa będzie mieć eksterytorialny charakter – co oznacza, że obowiązki będą również dotyczyć zagranicznych platform, jeżeli:

  • kierują one swoje usługi do polskich użytkowników (np. treści w języku polskim, płatności w PLN),
  • lub ich usługi są dostępne dla małoletnich z Polski, nawet bez aktywnej promocji.
 

Co dalej?

  • Projekt ustawy przechodzi obecnie konsultacje wewnątrzrządowe oraz społeczne. Ministerstwo deklaruje gotowość do dalszych rozmów – zarówno 
    w zakresie definicji treści nieodpowiednich, jak i technicznych środków egzekwowania przepisów.
  • Jeśli nie uda się wypracować szerszego konsensusu w sprawie tzw. patotreści, ostateczna wersja ustawy może ograniczyć się jedynie do regulowania treści pornograficznych.
  • Zobaczymy, czy te działania przełożą się na konkretne inicjatywy legislacyjne i w jakim kierunku one pójdą.

 

Międzynarodowi operatorzy – szczególnie z sektora VOD, social media i dostawców usług internetowych – powinni: ocenić stopień ekspozycji na rynek polski, przeanalizować, czy ich obecne systemy moderacji i ochrony dzieci są zgodne z założeniami projektu, wdrożyć lub zaplanować dostosowanie polityk zgodności, procesów technologicznych i dokumentacji regulacyjnej.



 

Media comment

Our legal experts are available to provide comment or background on international legal issues for your publication.

Skontaktuj się z jednym z naszych ekspertów