Regulacja social media 16+ w Australii – higiena cyfrowa i dobrostan młodzieży – co zmienia regulacja i co oznacza dla rodziców, szkół i platform?

Autor: Maciej Dębski

Australia wprowadza regulację 16+ dotyczącą wybranych platform społecznościowych. Ten materiał porządkuje fakty: kto odpowiada za wdrożenie, jak może wyglądać age assurance oraz co wiemy o wpływie social mediów na dobrostan dzieci i młodzieży. Tekst przyda się rodzicom i szkołom, które szukają języka i argumentów do rozmowy o higienie cyfrowej.

1. Cel i zakres podręcznika

Podręcznik porządkuje fakty dotyczące australijskiej regulacji ograniczającej posiadanie kont w wybranych serwisach społecznościowych przez osoby poniżej 16 roku życia oraz przedstawia aktualny stan wiedzy naukowej o wpływie mediów społecznościowych na dzieci i młodzież. Zawiera także opis biologicznych podstaw zachowania i mechanizmów projektowych stosowanych w produktach cyfrowych, które mogą zwiększać podatność na kompulsywne korzystanie.

2. Pojęcia i definicje

  • Media społecznościowe (social media): Usługi cyfrowe umożliwiające tworzenie treści przez użytkowników oraz interakcje społeczne (np. obserwowanie, komentarze, reakcje, wiadomości w ramach usługi).
  • Konto: Profil użytkownika w usłudze, umożliwiający dostęp do funkcji społecznościowych (publikowanie, komentowanie, subskrybowanie, komunikacja itp.).
  • Age assurance: Zbiór metod służących ustaleniu, czy użytkownik spełnia próg wieku (np. weryfikacja wieku, estymacja wieku).
  • Problematic social media use (PSMU): Wzorzec korzystania charakteryzujący się utratą kontroli i kontynuowaniem korzystania mimo szkód; pojęcie bywa mierzone kwestionariuszami i nie jest równoznaczne z formalną diagnozą uzależnienia.
  • Upward social comparison: Porównywanie się z osobami postrzeganymi jako lepsze lub odnoszące większe sukcesy; w kontekście social mediów często dotyczy wyglądu, statusu i relacji.

3. Fakty: regulacja 16+ w Australii

3.1 Najważniejsza ramka

Regulacja jest projektowana jako odroczenie dostępu do określonych funkcji społecznościowych do ukończenia 16 lat. Nie przewiduje kar finansowych ani odpowiedzialności karnej dla dzieci i rodziców. Obowiązek wdrożenia rozsądnych środków spoczywa na dostawcach platform (operatorach usług).

3.2 Kogo dotyczy

Regulacja dotyczy osób poniżej 16 lat znajdujących się w Australii oraz dostawców usług, które spełniają kryteria tzw. age-restricted social media platforms w rozumieniu przepisów i reguł wykonawczych.

3.3 Kogo nie dotyczy (na poziomie użytkownika)

Brak kar dla dzieci i rodziców ma istotne konsekwencje komunikacyjne: ciężar zgodności i ryzyko sankcji przeniesiono na platformy. W praktyce oznacza to, że dyskusja o regulacji nie musi być prowadzona w kategoriach 'przestępstwa’ czy 'mandatów’.

3.4 Kary (dla platform)

Za niewypełnienie obowiązków przez dostawcę przewidziano cywilne kary finansowe nakładane decyzją sądu. W materiałach rządowych podano maksymalne poziomy: 30 000 jednostek karnych (ok. 9,9 mln AUD) oraz 150 000 jednostek karnych (ok. 49,5 mln AUD) dla podmiotów korporacyjnych. Podobne poziomy przewidziano dla naruszeń przepisów ochrony informacji w tym reżimie.

3.5 Jak to wygląda operacyjnie: konta i dostęp

Przepisy wskazują cel (uniemożliwienie posiadania kont przez osoby <16) i standard należytej staranności (’reasonable steps’), natomiast pozostawiają platformom wybór rozwiązań operacyjnych (np. blokada konta, zawieszenie, dezaktywacja, żądanie weryfikacji wieku). W praktyce możliwe jest zachowanie dostępu do treści publicznych bez logowania, przy jednoczesnym ograniczeniu funkcji konta.

3.6 Egzekwowanie i raportowanie

Nadzór nad wdrożeniem prowadzi eSafety Commissioner. W doniesieniach z początku wdrożenia podkreślano wymóg raportowania postępów oraz liczb kont przed i po wejściu przepisów w życie, wraz z okresem intensywnego monitoringu w pierwszych miesiącach.

3.7 Przykładowe platformy: 'age-restricted’ i wyłączone (stan komunikowany przez eSafety)

eSafety publikuje listę usług, które – w ocenie regulatora – będą traktowane jako age-restricted oraz listę usług, które nie będą traktowane jako age-restricted (stan dynamiczny). Poniższa tabela odzwierciedla publiczne stanowisko eSafety na dzień 21.11.2025.

W ocenie eSafety: age-restrictedW ocenie eSafety: nie age-restricted (przykłady)
Facebook; Instagram; TikTok; Snapchat; X; Threads; Reddit; Twitch; Kick; YouTubeDiscord; WhatsApp; Messenger; Pinterest; Roblox; Steam (w tym Steam Chat); GitHub; Google Classroom; YouTube Kids; LEGO Play

4. Co mówią badania o wpływie social mediów na dzieci i młodzież

4.1 Dlaczego w badaniach pojawiają się sprzeczne wnioski

Wyniki badań bywają niejednoznaczne z kilku powodów: (1) wiele analiz ma charakter korelacyjny, co utrudnia wnioskowanie o przyczynowości; (2) różne badania mierzą 'używanie’ w odmienny sposób (czas, częstotliwość sprawdzania, wzorzec kompulsywny, pasywne vs aktywne korzystanie); (3) efekty są silnie zróżnicowane indywidualnie – ten sam produkt może działać ochronnie dla jednych, a ryzykownie dla innych; (4) znaczenie ma kontekst: sen, wsparcie społeczne offline, temperament, kryzysy rozwojowe i środowisko rówieśnicze.

4.2 Kluczowa zasada: 'czas’ jest słabszym wskaźnikiem niż wzorzec kompulsywny

W wielu dużych analizach związek między ogólnym czasem korzystania z technologii a dobrostanem nastolatków jest statystycznie istotny, ale bardzo mały. W praktyce większą wartość diagnostyczną mają wskaźniki utraty kontroli, przymusu sprawdzania oraz korzystania mimo szkód.

4.3 Co wzmacnia ryzyko, a co może chronić

Czynniki ryzyka (często współwystępujące):

  • pasywne przeglądanie (scrollowanie) połączone z porównaniami społecznymi w górę
  • ciągłe monitorowanie reakcji społecznych (lajki, komentarze) i zależność nastroju od wskaźników
  • korzystanie nocą i skracanie snu
  • cyberprzemoc, nękanie, wykluczenie rówieśnicze
  • wzorzec kompulsywny: przymus sprawdzania i trudność z przerwaniem mimo szkód
  • podatność indywidualna: wcześniejsze trudności emocjonalne, wysoki perfekcjonizm, niska samoocena, izolacja offline

Czynniki ochronne (w badaniach i praktyce):

  • silne relacje offline (rodzina, rówieśnicy, dorośli wspierający)
  • świadomość mechanizmów porównań i selektywnej prezentacji wizerunku w sieci
  • higiena snu i jasne granice czasowe
  • aktywny, celowy sposób używania (kontakt, twórczość, nauka), zamiast automatycznego scrollowania
  • umiejętności reagowania na cyberprzemoc i dostęp do pomocy

5. Katalog negatywnych konsekwencji (fizyczne, psychiczne, społeczne)

Katalog nie oznacza, że każda osoba doświadczy wszystkich konsekwencji. Służy do porządkowania obserwacji i rozmowy o ryzykach. W praktyce kluczowe znaczenie ma intensywność ekspozycji, podatność indywidualna oraz czynniki środowiskowe.

5.1 Konsekwencje dla zdrowia fizycznego

  • Sen: skracanie snu, opóźnianie zasypiania, gorsza jakość snu; w metaanalizach częste są istotne związki między używaniem mediów cyfrowych a gorszym snem.
  • Zmęczenie i spadek energii w dzień: często wtórne do deficytu snu; trudność w koncentracji i większa drażliwość.
  • Nawyki żywieniowe i aktywność: u części młodych: podjadanie podczas scrollowania, zamiana aktywności na siedzenie; jednocześnie wpływ zależy od całego stylu życia.
  • Postawa i przeciążenia: dolegliwości szyi/pleców i przeciążenie wzroku w skrajnych przypadkach; zwykle współwystępuje z długim siedzeniem i brakiem przerw.

5.2 Konsekwencje dla zdrowia psychicznego

  • Nastrój i objawy depresyjne: w wielu badaniach obserwuje się związek między intensywnym używaniem social mediów a objawami depresji i lęku; efekty średnie bywają małe, ale u części młodych mogą być znaczące.
  • Lęk społeczny i napięcie: presja stałej dostępności, oceny społecznej oraz porównań może nasilać lęk i niepokój; ważne jest rozróżnienie zwykłej aktywności od wzorca kompulsywnego.
  • Samoocena i obraz ciała: treści wizualne oraz porównania w górę (wygląd, status, relacje) zwiększają ryzyko niezadowolenia z ciała i zachowań żywieniowych problemowych.
  • Problemy z uwagą i samokontrolą: częste przerwania (np. notyfikacje) i szybkie przełączanie bodźców mogą utrudniać utrzymanie uwagi; badania wskazują na negatywny wpływ powiadomień na kontrolę poznawczą.
  • Wzorzec kompulsywny: utrata kontroli, przymus sprawdzania, korzystanie mimo szkód; u części młodych może współwystępować z obniżeniem nastroju, konfliktem w domu i trudnościami szkolnymi.

5.3 Konsekwencje społeczne i rozwojowe

  • Cyberprzemoc i wiktymizacja: silny czynnik ryzyka depresji i obniżenia dobrostanu; wymaga jasnych procedur wsparcia i zgłaszania.
  • Presja statusu i 'bycia na bieżąco’: FOMO oraz lęk przed wykluczeniem mogą wzmacniać kompulsywne sprawdzanie i konflikty domowe.
  • Konflikty rówieśnicze przeniesione do sieci: eskalacja sporów, 'publiczne’ upokorzenia, permanentny ślad i szybkie rozchodzenie się treści.
  • Ryzyko kontaktów szkodliwych: nękanie, sextortion, kontakty z dorosłymi o złych intencjach; ryzyko zależy od ustawień prywatności i nadzoru.
  • Przesunięcie czasu i jakości relacji offline: u części młodych spadek udziału w aktywnościach offline, co może zwiększać izolację i obniżać odporność psychiczną.

6. Biologiczne podstawy zachowania: dlaczego social media tak silnie angażują

6.1 Potrzeba przynależności i wspólnoty

Psychologia opisuje potrzebę przynależności jako podstawową motywację człowieka: dążenie do trwałych, pozytywnych więzi oraz do częstych, nieawersyjnych interakcji społecznych. W tym ujęciu sygnały akceptacji i odrzucenia są dla organizmu informacją o bezpieczeństwie i pozycji w grupie. Produkty społecznościowe mogą tę potrzebę wzmacniać, oferując szybkie i częste interakcje oraz stałą obecność rówieśników.

6.2 Dlaczego okres dorastania jest szczególnie wrażliwy

W adolescencji rośnie znaczenie relacji rówieśniczych i statusu społecznego, a jednocześnie systemy odpowiedzialne za kontrolę poznawczą i hamowanie impulsów dojrzewają stopniowo. W praktyce oznacza to większą wrażliwość na nagrody społeczne i presję grupy, przy jednocześnie mniejszej stabilności samoregulacji w porównaniu z osobami dorosłymi.

6.3 Porównywanie społeczne: funkcja adaptacyjna i ryzyko w środowisku cyfrowym

Teoria porównań społecznych (Festinger) zakłada, że w sytuacji braku obiektywnych kryteriów ludzie oceniają siebie poprzez odnoszenie się do innych. Porównania pełnią funkcje: (1) samookreślenia i budowania tożsamości, (2) uczenia norm i standardów, (3) kalibracji aspiracji, (4) orientacji w hierarchiach społecznych.

W social mediach mechanizm porównania jest wzmacniany przez: selektywną prezentację (najlepsze momenty), retusz i filtry, nadreprezentację osób o wysokim statusie oraz łatwość natychmiastowego przeskakiwania między profilami. W efekcie częściej pojawia się porównywanie w górę (upward comparison). Metaanalizy wskazują, że online social comparison jest istotnie powiązane z obawami o ciało i zachowaniami ryzykownymi związanymi z jedzeniem, zwłaszcza przy wysokiej intensywności ekspozycji i pasywnym przeglądaniu.

6.4 Ciekawość i potrzeba domykania niepewności (luka informacyjna)

Teoria luki informacyjnej (Loewenstein) opisuje ciekawość jako stan napięcia powstający wtedy, gdy uświadomiona zostaje różnica między tym, co wiadomo, a tym, co mogłoby być wiadome. Taki stan bywa odczuwany jak 'głód informacji’ i motywuje do natychmiastowego uzupełnienia braków. Powiadomienia push często wykorzystują tę dynamikę poprzez komunikaty niepełne i niejednoznaczne (np. 'Ktoś zareagował…’, 'Masz nowe…’), które informują o zdarzeniu, ale nie ujawniają treści. Badania z obszaru projektowania informacji wskazują, że push może zwiększać częstotliwość sprawdzania, ponieważ tworzy impuls natychmiastowej weryfikacji i zarządza niepewnością użytkownika.

6.5 Uczenie się na nagrodach: przewidywanie, błąd przewidywania i dopamina

Neurobiologia uczenia nagrodowego opisuje, że zachowania są wzmacniane nie tylko samą nagrodą, ale także nieprzewidywalnością i różnicą między oczekiwaniem a wynikiem (tzw. błąd przewidywania nagrody). Klasyczne prace (Schultz i współautorzy) pokazują rolę sygnałów dopaminergicznych w kodowaniu takich błędów, co wspiera uczenie się, kiedy i czego się spodziewać. W środowisku social mediów nagrody są często niepewne: kolejny scroll może przynieść informację ważną, zabawną lub społecznie istotną, ale nie musi. Taka zmienność wzmacnia nawyk sprawdzania i utrudnia wygaszanie zachowania.

7. Mechanizmy projektowe zwiększające ryzyko kompulsywnego korzystania

Poniższe mechanizmy są szeroko omawiane w literaturze o perswazyjnym projektowaniu i zachowaniach nawykowych. Nie oznaczają one automatycznie 'uzależnienia’ u każdego użytkownika. Opisują natomiast funkcje, które statystycznie zwiększają zaangażowanie i mogą nasilać trudności z samokontrolą u części osób.

7.1 Pętla nawyku i minimalizacja tarcia

Wiele produktów cyfrowych upraszcza sekwencję 'bodziec -> działanie -> nagroda’. Bodźcem może być emocja (nuda, stres), sygnał społeczny (wiadomość) lub systemowy (push). Działanie jest łatwe (jedno kliknięcie). Nagroda ma charakter informacyjny lub społeczny. Upraszczanie działania (brak tarcia) zwiększa częstość powtórzeń. Modele perswazyjne (np. Fogg Behavior Model) opisują rolę motywacji, zdolności (łatwości) i bodźców w inicjowaniu zachowań.

7.2 Zmienna nagroda (intermittent/variable reinforcement)

Zmienna nagroda polega na tym, że pozytywne wzmocnienia pojawiają się nieregularnie. W literaturze behawioralnej to jeden z najsilniejszych wzorców utrzymywania zachowania. W kontekście produktów cyfrowych zmienność występuje w feedzie (czasem treść wyjątkowo atrakcyjna), w reakcjach społecznych (czasem dużo, czasem mało) oraz w oczekiwaniu na odpowiedź (niepewność czasu i treści). Przeglądy dotyczące zachowań nawykowych i uzależnień behawioralnych podkreślają znaczenie zmienności i częstotliwości ekspozycji.

7.3 Infinite scroll i autoplay: brak naturalnego końca

Infinite scroll i autoplay usuwają 'sygnały stopu’ (koniec strony, koniec odcinka). To ogranicza momenty refleksji i zwiększa prawdopodobieństwo kontynuacji. W literaturze dotyczącej cech uzależniających w aplikacjach wskazuje się, że ciągłe przewijanie jest szczególnie efektywne, ponieważ nagroda pojawia się od czasu do czasu i podtrzymuje dalsze przewijanie.

7.4 Powiadomienia push: impuls sprawdzenia i domykanie niepewności

Powiadomienia push pełnią rolę zewnętrznych wyzwalaczy. Mogą być projektowane jako komunikaty niepełne, co tworzy lukę informacyjną i zwiększa napięcie poznawcze. Badania z zakresu ekonomii informacji i projektowania powiadomień pokazują, że push może prowadzić do częstszego sprawdzania w porównaniu z brakiem push, ponieważ generuje impuls natychmiastowej weryfikacji. W praktyce notyfikacje bywają także źródłem bodźców o niskiej wiarygodności lub niepewnej wartości, co paradoksalnie może nasilać sprawdzanie: brak jasności czy informacja jest ważna, wzmacnia potrzebę szybkiego domknięcia.

7.5 Metryki społeczne: liczniki, lajki, wyświetlenia

Widoczne metryki społeczne przekształcają relacje w mierzalne wskaźniki statusu. W połączeniu z mechanizmem porównywania społecznego mogą nasilać koncentrację na ocenie i lęk przed spadkiem widoczności. Wrażliwość na takie wskaźniki jest szczególnie wysoka w grupie nastolatków.

7.6 'Społeczne zobowiązania’: streaki, presja odpowiedzi, stała dostępność

Część produktów wprowadza elementy podtrzymujące codzienny rytm używania (np. streaki) lub społeczne zobowiązania (oczekiwanie szybkiej odpowiedzi). Mechanizmy te wykorzystują potrzebę przynależności i lęk przed utratą relacji/statusu, co może utrudniać przerwy i ograniczenia.

7.7 Algorytmiczna personalizacja: uczenie się preferencji i podatności

Systemy rekomendacyjne optymalizują treści pod kątem utrzymania uwagi. Uczą się preferencji na podstawie danych behawioralnych (czas oglądania, powtórki, reakcje). W efekcie feed może wzmacniać zarówno treści neutralne, jak i te, które sprzyjają porównaniom społecznym, polaryzacji lub utrwalaniu nastrojów negatywnych. Doniesienia medialne oparte o badania wewnętrzne wskazywały, że osoby bardziej wrażliwe (np. z częstym niezadowoleniem z ciała) mogą widzieć więcej treści sąsiadujących z problemami żywieniowymi.

7.8 'Szybkie nagrody’ i kompresja czasu

Krótki cykl bodziec-nagroda (kilka sekund do kolejnej treści) powoduje kompresję czasu ekspozycji. Z perspektywy uczenia na nagrodach zwiększa to liczbę wzmocnień w jednostce czasu i może utrudniać samoregulację, zwłaszcza przy zmęczeniu i stresie.

8. Mity i korekty

Mit 1: Dziecko lub rodzic dostanie mandat za korzystanie.

  • Korekta: regulacja nie przewiduje kar dla użytkowników; sankcje dotyczą dostawców platform, którzy nie podejmą rozsądnych kroków, aby uniemożliwić posiadanie kont <16.

Mit 2: To całkowicie blokuje internet i YouTube.

  • Korekta: celem jest ograniczenie posiadania kont i funkcji społecznościowych w określonych usługach; dostęp do treści publicznych bez konta może pozostać możliwy, a usługi typu YouTube Kids są traktowane odmiennie.

Mit 3: Skoro da się obejść, regulacja nie ma sensu.

  • Korekta: polityki publiczne często redukują ryzyko, nie eliminując go w 100%. W tym ujęciu celem jest zmniejszenie presji rówieśniczej i odroczenie wejścia w najbardziej angażujące funkcje, przy przeniesieniu odpowiedzialności na platformy.

Mit 4: Problemem jest tylko czas ekranu.

  • Korekta: w badaniach ważne są wzorce korzystania (kompulsywność, nocne używanie, porównania społeczne) oraz kontekst życia, a nie sama liczba godzin.

9. Właściwa optyka komunikacyjna

W rozmowach z rodzicami i młodzieżą użyteczna jest ramka, która unika moralnej paniki i jednocześnie jasno nazywa ryzyka. Poniższe punkty porządkują przekaz.

  • Regulacja 16+ jest przedstawiana jako odroczenie korzystania z kont na wybranych platformach, a nie penalizacja dzieci i rodziców.
  • Odpowiedzialność prawna i ryzyko kar spoczywają na platformach; ciężar nie jest przeniesiony na rodziny.
  • Wpływ social mediów jest zróżnicowany: średnie efekty w badaniach bywają małe, ale u części młodych mogą wystąpić duże szkody (np. cyberprzemoc, zaburzenia snu, nasilone porównania).
  • Najbardziej praktyczne jest koncentrowanie się na mechanizmach ryzyka: porównania społeczne, utrata snu, cyberprzemoc, kompulsywne sprawdzanie i częste przerwania.
  • Wspólnota i kontakt z rówieśnikami są realną potrzebą rozwojową; ograniczenia powinny iść w parze z alternatywami offline i wsparciem relacyjnym.

10. Skala korzystania z mediów społecznościowych, wzory używania i ryzyka (dane z raportu Fundacji Dbam o Mój Zasięg, 2025)

Poniższe dane pochodzą z raportu „Dobre i złe wiadomości – życie online i offline a zdrowie psychiczne polskich nastolatków” (Fundacja Dbam o Mój Zasięg, 2025). W raporcie porównano uczniów klas siódmych szkół podstawowych oraz uczniów klas trzecich szkół ponadpodstawowych. Dane są przydatne jako tło do rozmów o regulacjach typu „16+” oraz do porządkowania dyskusji o ryzykach: nie tylko ‘ile czasu’, lecz także ‘jak’ i ‘po co’ korzysta się z mediów społecznościowych i internetu.

10.1 Obecność na portalach społecznościowych i regularność korzystania

Posiadanie konta w portalu społecznościowym deklarowała zdecydowana większość badanych: 88% uczniów klas siódmych oraz 96% uczniów klas trzecich szkół ponadpodstawowych. Wśród młodszych 12% nie miało konta, a wśród starszych 4% nie miało konta. Jeśli chodzi o intensywność, codzienne korzystanie deklarowało 48% uczniów klas siódmych oraz 71% uczniów klas trzecich; kolejne 34% (młodsi) i 19% (starsi) korzystało ‘prawie codziennie’, co łącznie daje 82% i 90% regularnych użytkowników.

WskaźnikKlasa VII SPKlasa III szkoły ponadpodstawowej
Posiadanie konta na portalu społecznościowym88%96%
Brak konta12%4%
Korzystanie codziennie (ostatni rok)48%71%
Korzystanie prawie codziennie34%19%
Regularni użytkownicy (codziennie + prawie codziennie)82%90%
Korzystanie sporadyczne wśród posiadających konto (kilka razy w tygodniu lub rzadziej)ok. 18%ok. 9%

Źródło: Fundacja Dbam o Mój Zasięg (2025), s. 91–93.

10.2 Czas online w dzień nauki i w weekendy

W zwykły dzień nauki rozkład czasu online przesuwa się w stronę dłuższych sesji wraz z wiekiem. W klasach siódmych 33% uczniów deklarowało spędzanie w internecie około 4 godzin dziennie lub więcej, a w klasach trzecich szkół ponadpodstawowych – 58%.

Czas online w zwykły dzień naukiKlasa VII SPKlasa III ponadpodst.
Wcale lub prawie wcale2%1%
Około pół godziny4%2%
Około godziny14%6%
Około 2 godzin25%15%
Około 3 godzin22%18%
Około 4 godzin16%22%
Około 5 godzin9%15%
Około 6 godzin3%10%
Około 7 godzin lub więcej5%11%

W weekendy aktywność online była jeszcze wyższa. Wśród uczniów klas siódmych około 32% spędzało w internecie w dzień weekendowy 5 godzin lub więcej. Wśród uczniów klas trzecich szkół ponadpodstawowych 13% deklarowało korzystanie przez 6 godzin, a 22% – ponad 7 godzin w dzień weekendowy.

10.3 Wzory pasywne i kompulsywne: „scroll bez celu”, regulacja nastroju, ryzyko uzależnienia

W raporcie podkreślono, że pasywne korzystanie (scrollowanie bez interakcji) i korzystanie „dla zabicia nudy” stają się z wiekiem coraz częstsze, a wraz z nimi rosną subiektywne koszty (poczucie zmarnowanego czasu, poczucie ‘braku wartości’ tego, co dzieje się online).

Pasywne wzory (często/bardzo często/zawsze)Klasa VII SPKlasa III ponadpodst.
Korzystanie bez żadnego konkretnego celu42%61%
Scroll bez interakcji (bez komentowania/lajkowania/publikowania)55%64%
Korzystanie dla zabicia nudy53%67%
Poczucie zmarnowanego czasu po dłuższym przeglądaniu27%42%
Poczucie, że to, co dzieje się online, jest ‘bez większej wartości’24%38%

Wyniki skali CIUS (Compulsive Internet Use Scale) zostały zinterpretowane w trzech przedziałach: poniżej normy, w normie oraz powyżej normy (powyżej normy traktowane jako sygnał podwyższonego nasilenia problematycznego używania internetu i trudności z kontrolą). Średnio w klasach siódmych około 24–25% badanych było w przedziale ‘powyżej normy’, a w klasach trzecich szkół ponadpodstawowych – około 31–32%. W obu grupach częściej próg ‘wysokiej kompulsywności’ przekraczały dziewczęta (31% w klasie VII oraz 39% w klasie III ponadpodstawowej).

Skala CIUS – przedziały (w %)VII SP chłopcyVII SP dziewczętaIII ponadpodst. chłopcyIII ponadpodst. dziewczęta
Niski poziom kompulsywności20%17%19%12%
Przeciętny poziom kompulsywności62%52%57%49%
Wysoki poziom kompulsywności18%31%24%39%

Wśród najczęściej wskazywanych symptomów o charakterze ‘regulacji nastroju’ pojawiało się sięganie po internet w przygnębieniu lub ‘ucieczce od zmartwień’. W klasach siódmych odpowiedzi ‘często’+‘zawsze’ wynosiły 28% dla stwierdzenia o korzystaniu w przygnębieniu oraz 27% dla korzystania w celu ucieczki od zmartwień. W klasach trzecich szkół ponadpodstawowych odsetki te były wyższe: 36% oraz 35%.

10.4 Ekspozycja na treści szkodliwe i zachowania ryzykowne online

W raporcie zwrócono uwagę na to, że ekspozycja na treści szkodliwe nie wymaga aktywnego wyszukiwania – może pojawiać się ‘przy okazji’ w strumieniu treści. W starszej grupie (klasa III ponadpodstawowej) ekspozycja na większość typów treści była wyraźnie częstsza niż w klasach siódmych.

Typ treściVII SP: kiedykolwiekVII SP: regularnieIII ponadpodst.: kiedykolwiekIII ponadpodst.: regularnie
Treści pokazujące, jak zrobić sobie krzywdę26%3%35%5%
Treści namawiające do niebezpiecznych zachowań (np. alkohol/narkotyki)31%6%61%14%
Treści przedstawiające przemoc/krzywdzenie ludzi lub zwierząt46%5%66%12%
Treści wyśmiewające/obrażające z powodu przynależności do grupy46%8%62%19%
Reklamy treści przeznaczonych tylko dla dorosłych47%6%75%19%

W obszarze zachowań ryzykownych (m.in. kontaktów z nieznajomymi i omijania barier wiekowych) wskazano, że wśród uczniów klas trzecich szkół ponadpodstawowych: 52% zapraszało lub przyjmowało zaproszenia od osób całkiem nieznajomych, 50% pobierało z sieci za darmo treści, za które normalnie trzeba zapłacić, 47% szukało reklam/stron dla dorosłych, a 45% podawało w sieci zawyżony wiek, aby uzyskać dostęp do treści dla dorosłych. W podsumowaniu raportu wskazano również, że 33% uczniów deklarowało bycie obrażanym w internecie przez inne osoby.

11. Co wiemy po 6 tygodniach od wprowadzenia nowego prawa?

Kiedy państwo wprowadza limit wieku dla social mediów, rodzice najczęściej pytają o jedno: czy to realnie działa, czy to tylko hasło. W praktyce liczą się trzy rzeczy: (1) wdrożenie po stronie platform, (2) możliwość obchodzenia, (3) konsekwencje dla rodzin i szkół. Największym ryzykiem jest rozjazd między oczekiwaniem („dzieci znikną z platform”) a rzeczywistością („część nadal będzie miała dostęp”), co może wywołać frustrację i chaos w domowych zasadach.

11.1. Czy widać efekty? Ile kont usunięto? Co wiemy (stan na styczeń 2026)

  • Regulacja zaczęła obowiązywać10 grudnia 2025.
  • Według danych podawanych przez instytucje i media, platformyusunęły/zablokowały ok. 4,7 mln kontpowiązanych z osobami poniżej wymaganego wieku — w bardzo krótkim czasie od wejścia przepisów w życie.
  • Meta informowała o usunięciuponad 500 tys. kont dzieci z Facebooka i Instagrama w ramach dostosowania do wymogów.

To pokazuje, że platformy potrafią działać masowo, jeśli muszą. Jednocześnie liczby (jak 4,7 mln) nie mówią jeszcze, ilu nastolatków faktycznie „zniknęło z social mediów”, bo część osób ma więcej niż jedno konto, a część może migrować między usługami.

11.2. Czy już są kary dla platform („big techów”)?

System jest zaprojektowany tak, że odpowiedzialność jest po stronie platform, a nie rodziców i dzieci.  Maksymalne kary za brak „rozsądnych kroków” po stronie platform są opisywane jako do 49,5 mln AUD. W pierwszych tygodniach po starcie zwykle dominuje wdrażanie i raportowanie, a nie spektakularne kary „na dzień dobry”. Kluczowe jest to, że w tym modelu państwo buduje presję: albo wdrażacie, albo ryzykujecie konsekwencje finansowe.

11.3. Czy system da się obejść? (i dlaczego to wcale nie jest detal)

W regulacjach wieku zawsze pojawia się „wyścig”: platformy uszczelniają, część użytkowników szuka obejść. Rodzice często pytają: „Skoro da się obejść, to po co to wszystko?”. Odpowiedź jest bardziej złożona: nawet jeśli obejścia istnieją, regulacja może działać jako „zderzak” (utrudnienie, spowolnienie, zmiana normy społecznej), a nie jako magiczny wyłącznik.

Co wiemy:

  • Już w dniu wejścia przepisów w życie opisywano przypadki, że część nastolatków nadal uzyskiwała dostęp — m.in. przez błędy w weryfikacji, manipulowanie danymi wieku lub korzystanie z narzędzi typu VPN.
  • Pojawiają się relacje, że mimo działań platform część młodzieży nadal korzysta z aplikacji (np. przez „fałszywe urodziny” lub techniczne obejścia).

To oznacza, że w domu dalej potrzebujesz higieny cyfrowej, bo sama regulacja nie zastąpi: zasad, przewidywalności, rozmowy i ustawień telefonu. Regulacja może pomóc, ale nie „wychowa” za rodzica.

11.4. Co to oznacza dla rodziców i szkół? (czyli jak z tego korzystać mądrze)

„Skoro prawo zabrania, to dlaczego moje dziecko dalej ma dostęp?” — i pojawia się spirala: rozczarowanie → złość → zaostrzenie zakazów → ukrywanie aktywności → nocne używanie.

Co może działać (podejście realistyczne)

  1. Traktuj regulację jako wsparcie, a nie zastępstwo wychowania: Jeśli nastolatek nie ma konta — świetnie. Jeśli „kombinuje” — nadal pracujesz nad mechanizmem: po co mu to, co mu to daje, kiedy traci kontrolę, co jest alternatywą regulacyjną.
  2. Zasada: „prawo jest tłem, a w domu jest plan”: W praktyce lepiej działa: stałe okna, punkty domknięcia, mniej powiadomień, brak autoplay, tryb skupienia — niż sama groźba zakazu.
  3. W szkołach: wspólny język i procedury, nie moralizowanie: dla pedagogów i psychologów szkolnych regulacja może być pretekstem do edukacji: czym jest „age assurance”, czym jest PSMU/problematic use, jak wyglądają „pętle bodźców” i dlaczego sen jest kluczowy.

11.5. Czego jeszcze nie wiemy (uczciwie)

W pierwszych tygodniach po zmianie prawnej widać głównie dane o wdrożeniu (konta/technologia), a nie o dobrostanie. Na twarde odpowiedzi „czy poprawiło to zdrowie psychiczne młodzieży” potrzeba czasu i danych (to nie jest efekt z tygodnia na tydzień).

12. Czy Polska chce naśladować Australię? Wnioski i pułapki przy przenoszeniu regulacji

Wokół australijskiej regulacji 16+ szybko pojawiło się pytanie: czy inne państwa pójdą tą samą drogą – i czy to „działa”. W tym rozdziale porządkuję dwie rzeczy: (1) co na dziś wiemy (a czego nie wiemy) o wdrożeniu w Australii oraz (2) co z tego może – i czego nie powinna – kopiować Polska.

12.1. Czy Polska chce „naśladować Australię”?

W Polsce temat realnie jest na stole, ale nie ma jeszcze jednej, gotowej ustawy „1:1 jak w Australii”. W debacie publicznej pojawiają się propozycje ograniczania dostępu dzieci do części usług (zwłaszcza platform społecznościowych) oraz pomysły na weryfikację wieku/age assurance. To raczej kierunek: więcej narzędzi i obowiązków po stronie platform + wsparcie dla rodziców i szkół, niż prosty zakaz, który „rozwiąże problem sam”. Co to oznacza praktycznie:

  • temat jest obserwowany w Europie – Australia stała się punktem odniesienia, ale unijne regulacje (DSA/RODO) i realia są inne;
  • w Polsce, jeśli pójdziemy w stronę ograniczeń wiekowych, kluczowe będzie nie hasło („16+”), tylko mechanizm: jak to egzekwować, jak chronić prywatność i jak nie wypchnąć młodych do „gorszych” miejsc w sieci.

12.2. Czego uczy Australia – wnioski dla Polski

To, co w Australii widać od razu, to jedna ważna lekcja: w polityce publicznej nie wygrywa slogan, tylko wykonanie. I to wykonanie ma kilka „pól minowych”.

  1. Weryfikacja wieku: jeśli ma działać, musi być „wystarczająco dobra” i mało inwazyjna
    Jeśli weryfikacja wieku jest zbyt słaba, dzieci obchodzą ją w 5 minut. Jeśli jest zbyt ciężka, wchodzimy w konflikt z prywatnością, ryzykiem wycieków i wykluczeniem (np. brak dokumentu, brak zgody rodzica, problemy z technologią). Polska musi od początku zadać pytania o minimalizację danych: czy da się zrobić model „tak/nie: mam 16+” bez skanowania dokumentów i bez centralnej bazy wrażliwych danych? I kto ponosi odpowiedzialność za błędy systemu (fałszywe blokady lub przepuszczanie)?
  1. Lista usług: co obejmuje regulacja, a co zostaje poza nią
    Australia objęła wybrane platformy, ale część usług (np. komunikatory) jest wyłączona. W praktyce oznacza to przesunięcie: jeśli coś się zamknie w jednym miejscu, młodzi przeniosą się do innego – czasem mniej moderowanego, mniej bezpiecznego, bardziej „w podziemiu”. Polska powinna pilnować, żeby regulacja nie była „dziurawa” w sposób oczywisty (bo wtedy efekt będzie głównie PR-owy), ale też żeby nie zamieniła się w totalną blokadę internetu.
  1. Skutki uboczne: wypchnięcie do VPN, kont „na rodziców” i drugich urządzeń
    Każda blokada rodzi rynek obejść: VPN, konta na dane starszego rodzeństwa, konta „na rodzica”, ustawienia wieku na 2000 r., korzystanie bez logowania. Z punktu widzenia higieny cyfrowej to zmienia grę: dziecko przestaje rozmawiać otwarcie, a zaczyna kombinować. Dlatego Polska powinna łączyć narzędzia techniczne z edukacją i relacją: im więcej wstydu i kar, tym więcej ukrywania.
  1. Kary dla platform: muszą być realne, ale też egzekwowalne
    Australia przewiduje bardzo wysokie kary, ale pytanie brzmi: jak często i za co faktycznie będą nakładane. W Polsce – jeśli chcemy, by „big tech” cokolwiek zmienił – musimy mieć jasne definicje obowiązków (co to znaczy „reasonable steps”), harmonogram kontroli, narzędzia audytu i realną zdolność egzekucji. W przeciwnym razie skończy się na papierze, a w praktyce ciężar wróci do rodziców.
  2. Najważniejsze: regulacja nie zastąpi higieny cyfrowej w domu i w szkole
    To jest klucz. Nawet jeśli ograniczenie wieku zmniejszy liczbę kont u młodszych dzieci, nie rozwiąże: problemów ze snem, „pętli bodźców”, przeciążenia treściami, cyberprzemocy, presji rówieśniczej i mechanizmów uzależniającego projektowania. Polska – jeśli chce wyciągnąć wnioski – powinna równolegle inwestować w programy dla rodziców i szkół: jak stawiać granice, jak zmieniać ustawienia, jak rozmawiać bez wstydu i jak reagować na kryzysy.

12.3. 5 pytań kontrolnych dla Polski (zanim powiemy: „robimy 16+”)

  • Jak dokładnie weryfikujemy wiek (age assurance) i jakie dane zbieramy – minimum konieczne?
  • Kto płaci za wdrożenie po stronie platform i kto odpowiada za błędy (fałszywe blokady / przepuszczenia)?
  • Jakie usługi obejmujemy i jakie są spodziewane „przerzuty” na inne platformy?
  • Jak mierzymy skutki (sen, dobrostan, cyberprzemoc, wyniki w szkole) – i po jakim czasie?
  • Jaki równoległy program wsparcia dostają rodzice i szkoły (praktyczne narzędzia, nie tylko kampania)?

12. Bibliografia i źródła

  1. Age Assurance Technology Trial – Part A Main Report (PDF). (link)
  2. Australian Government, Department of Infrastructure. Age Assurance Technology Trial – Final Report (publikacja raportu). (link)
  3. Australian Government, Department of Infrastructure. Social Media Minimum Age – Fact sheet (lipiec 2025). (link)
  4. Baumeister, R. F., & Leary, M. R. (1995). The Need to Belong: Desire for Interpersonal Attachments as a Fundamental Human Motivation. Psychological Bulletin. (link)
  5. Bonfanti, R. C., i wsp. (2025). Online social comparison and body image/eating disorder outcomes: systematic review and meta-analysis. (link)
  6. Cal-Herrera, A., i wsp. (2025). The Impact of Social Media on Adolescents’ Eating and Sleeping: meta-analizy (m.in. sen r≈0,36). (link)
  7. eSafety Commissioner (Australia). Social media age restrictions (strona informacyjna, kary, podejście 'reasonable steps’). (link)
  8. eSafety Commissioner (Australia). Which social media platforms are age-restricted? (lista wg eSafety, stan na 21.11.2025). (link)
  9. Festinger, L. (1954). A Theory of Social Comparison Processes. Human Relations. (link)
  10. Fogg, B. J. (2009). A Behavior Model for Persuasive Design (FBM). (link)
  11. Iyer, G., i wsp. (2021). Pushing Notifications as Dynamic Information Design (wpływ push na sprawdzanie). (link)
  12. Keles, B., McCrae, N., & Grealish, A. (2020). A systematic review: the influence of social media on depression, anxiety and psychological distress in adolescents. International Journal of Adolescence and Youth. (link)
  13. Loewenstein, G. (1994). The Psychology of Curiosity: A Review and Reinterpretation (information-gap theory). Psychological Bulletin. (link)
  14. Montag, C., i wsp. (2019). Addictive Features of Social Media/Messenger Platforms and Freemium Games. International Journal of Environmental Research and Public Health. (link)
  15. Orben, A., & Przybylski, A. K. (2019). The association between adolescent well-being and digital technology use. Nature Human Behaviour. (link)
  16. Schultz, W., Dayan, P., & Montague, P. R. (1997). A neural substrate of prediction and reward. (link)
  17. Tran, H. G. N., i wsp. (2023). Cyber-Victimization and Its Effect on Depression in Adolescents: A Systematic Review and Meta-Analysis. Trauma, Violence, & Abuse. (link)
  18. Upshaw, J. D., i wsp. (2022). The effects of smartphone notifications on cognitive control and attention. Frontiers in Psychology. (link)
  19. Xiao, Y., i wsp. (2025). Addictive Screen Use Trajectories and Suicidal Behaviors, Suicidal Ideation, and Mental Health in US Youths. (link)
  20. Australian Government / Parliament of Australia (2024/2025). Social Media Minimum Age (zestawienie regulacji, obowiązki platform, kary).
  21. eSafety Commissioner (Australia) – materiały informacyjne i FAQ dot. Social Media Minimum Age (age assurance, zakres usług, egzekwowanie).
  22. Parlament Europejski (2025). Debata/rezolucje i raporty dot. ochrony małoletnich online oraz rozwiązań age verification w UE (link).
  23. Reuters (2025-10-20). Internal Meta research: vulnerable teens see more eating-disorder-adjacent content (doniesienia). (link)

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *