"Moja data". Niebezpieczny trend, którego nie ma? Eksperci wyjaśniają

2025-12-16 14:00

„Niepokojący trend”, „KidsAlert ostrzega”, „"moja data" zbiera żniwo”. To tylko niektóre z nagłówków, które w ostatnim czasie pojawiły się w sieci. Powód? Ostrzeżenie przed trendem opublikowane w aplikacji prowadzonej przez organizację pozarządową. „Trendu nie ma” - mówi nam policja. Czy zatem jest przed czym ostrzegać rodziców i dzieci?

nastolatka

i

Autor: Pixabay.com
Super Express Google News

"Moja data" niebezpieczny trend czy fake news?

"Moja data" - tak zdaniem "Kids Alert" miał nazywać się ostatni trend na TikToku, przed którym ostrzegali w swojej aplikacji. Alert pojawił się w poniedziałek, 8 grudnia. W środę (10 grudnia) na podstawie tego ostrzeżenia Polska Agencja Prasowa opublikowała depeszę, a za nią niepokojące informacje podały inne portale, stacje radiowe i telewizje. My też zainteresowaliśmy się tematem. W końcu skoro jest ostrzeżenie, PAP o tym pisze, to znaczy, że coś jest na rzeczy. Czy jednak na pewno?

Okazało się, że nie. Skontaktowaliśmy się z dr Halszką Witkowską, suicydolog, ekspertką Biura ds. Zapobiegania Zachowaniom Samobójczym Instytutu Psychiatrii i Neurologii w Warszawie z prośbą o komentarz do alertu.

Zanim zdecydowała się na wypowiedź postanowiła zweryfikować informację - czy taki trend w ogóle istnieje. I tu zapaliła się czerwona lampka - jak to zweryfikować informację? Kids Alert wrzucałoby niezweryfikowane ostrzeżenia?

- To, że kilka razy coś się w internecie pojawi, ktoś wrzuci jakąś pojedynczą informację, to nie znaczy, że to jest od razu trend - tłumaczy mi dr Witkowska. - To są fake newsy, to są fałszywe informacje, a nawet jeżeli jest w tym ziarno prawdy, to zazwyczaj polega to na tym, że były dwa, trzy przypadki może, ktoś coś wrzucił do internetu, natomiast to nie świadczy o tym, że mamy do czynienia z jakimś konkretnym trendem - dodaje.

Jak "KidsAlert" tworzy i weryfikuje swoje ostrzeżenia?

Zacznijmy od podstaw: "Kids Alert" nie jest w żaden sposób związana z oficjalnymi kanałami ostrzegania przed zagrożeniami w sieci. To prywatna aplikacja stworzona i rozwijana przez fundację „Prospołeczna”. Skąd zatem biorą się tam alerty? - Ręcznie przeczesujemy m.in. TikToka. Jeśli jakieś treści wzbudzą nasze zainteresowanie albo zaczynają być popularne wśród młodych, zaczynamy je monitorować i patrzymy, co się dzieje dalej - tłumaczy Kinga Szostko, autorka aplikacji "Kids Alert”. Szostko zastrzega, że alert trafia do aplikacji dopiero w momencie, gdy zagrożone jest życie i zdrowie dzieci.

Dodatkowo, jak dowiedzieliśmy się od twórców aplikacji, mają oni dysponować „materiałem dowodowym" dotyczącym trzech samobójstw młodych ludzi w województwie pomorskim, które jak przekazała mi Kinga Szostko „są związane z tym co dzieci wyświetlały na TikToku”.

- My informujemy mailowo CBZC (Centralne Biuro Zwalczania Cyberprzestępczości Policji - red.) o danym zjawisku, więc oni mają tą wiedzę, ale w tych przestrzeniach ich nie ma, no bo nie ma komórek, które monitorują tego typu zachowania jak nasza, a więc ja mam wrażenie, że my weszliśmy w pewnego rodzaju niszę i trochę wspomagamy nasze organy - tłumaczy w rozmowie z nami Kinga Szostko.

Co na to policja?

O rozmowę i komentarz w sprawie poprosiliśmy również Michała Pietraszko z Centralnego Biura Zwalczania Cyberprzestępczości Policji. - Nasze biuro monitoruje sieć przez całą dobę, 7 dni w tygodniu - zapewnia. - Funkcjonariusze sprawdzają aktywność w sieci, które między innymi zakrawają o tematy samobójstwa i jeśli takowe wpisy, czy też aktywność zostanie ujawniona, policjanci naszego biura informują właściwą jednostkę policji, na której podległym terenie przebywa taka osoba, by podjąć czynności w niezbędnym zakresie - wyjaśnia.

Policja, jak tłumaczy nam Pietraszko, nie ocenia, co jest trendem, a co nie. - Ostrzegamy o zagrożeniach, które pojawiają się wśród danej grupy wiekowej. Komunikujemy o tym, gdy w krótkim odstępie czasu występuje kilka potwierdzonych przypadków, które zostały ujawnione przez funkcjonariuszy, czy też zgłoszone przez osoby do jednostek policji - tłumaczy.

Taka zweryfikowana przez mundurowych informacja pojawia się na oficjalnych stronach internetowych Policji i w mediach społecznościowych. Alerty o "mojej dacie" czy innych popularnych w ostatnim czasie rzekomych trendach na stronach policji nigdy się nie znalazły.

Co ważne - nie negujemy, ani nie oczerniamy działalności "KidsAlert". Zwracamy jednak uwagę na zjawisko, przed którym sami twórcy aplikacji swego czasu ostrzegali: „Błędne nagłaśnianie ryzyka może uruchamiać tzw. efekt Wertera, co niepotrzebnie wzmocni zainteresowanie i skłoni młodzież do naśladowania określonego zjawiska”. To dosłowny cytat z aplikacji z alertu zatytułowanego „Nie znikaj!” z 13.10.2025 r.

Stanowisko TikToka

Swoje stanowisko w sprawie przekazała platforma TikTok. Publikujemy je w całości:

Nie zezwalamy na treści, które przedstawiają, zapowiadają popełnienie lub promują samobójstwa czy samookaleczenia. Każdy taki materiał jest usuwany niezwłocznie po wykryciu. Ponad 99% treści naruszających te zasady usuwamy proaktywnie i blokujemy możliwość wyszukiwania wskazanych fraz. Jednocześnie zwracamy uwagę, że komunikat opublikowany przez KidsAlert zawiera szereg spekulacji oraz stwierdzeń, które są nieprawdziwe, wprowadzają w błąd i nie znajdują potwierdzenia w faktach. TikTok był i pozostaje otwarty na współpracę z organizacjami pozarządowymi, zarówno na poziomie globalnym, jak i lokalnym - biuro prasowe TikToka.

Na temat listu otwartego do TikToka:

  • Otrzymaliśmy list otwarty od Twórców aplikacji KidsAlert, który wydaje się być reakcją na nasze działania mające na celu rzetelne ustalenie faktów związanych z ostatnim alertem opublikowanym w aplikacji. List zawiera bardzo mocne, lecz jednocześnie bezpodstawne zarzuty, jakoby TikTok wywierał presję na instytucje lub ich partnerów lub próbował ukrywać poruszane w alercie kwestie, wprost oskarażając nas o działanie w złej wierze. Zdecydowanie odrzucamy te zarzuty jako nieprawdziwe.
  • TikTok współpracuje z instytucjami społecznymi, ekspertami i organizacjami pozarządowymi w sposób otwarty i proaktywny, co potwierdzają liczne partnerstwa i inicjatywy realizowane na przestrzeni lat.
  • W relacjach z Twórcami aplikacji również stosowaliśmy to podejście, pozostając w kontakcie i reagując na przekazywane zgłoszenia. Mając na uwadze różnorodność form i intensywność tych zgłoszeń oraz potrzebę ich rzetelnej oceny, już rok temu zaproponowaliśmy twórcom aplikacji "Kids Alert" dołączenie do Community Partner Channel - programu umożliwiającego organizacjom społecznym bezpośredni kontakt z naszymi zespołami bezpieczeństwa. Propozycja ta była kilkukrotnie ponawiana i pozostaje aktualna.

Na temat alertu:

  • Nie zgadzamy się z kilkoma wnioskami zawartymi w alercie, które w naszej ocenie, nie są poparte dostępnymi dowodami.
  • Autorzy alertu nie wystąpili do nas o dostęp do narzędzi analitycznych, które udostępniamy niezależnym badaczom; raport nie zawiera również informacji o metodologii analizy trendów.
  • Autorzy alertu powołują się na raport Instytutu Monitorowania Mediów (IMM), który ma stanowić jeden z kluczowych dowodów dla dalszych tez. Sformułowanie użyte w alercie „zgodnie z raportem otrzymanym od Instytutu Monitorowania Mediów wzrost zainteresowania takimi treściami jest widoczny od października i może mieć związek z ich promowaniem przez algorytmy TikToka” sugeruje, że IMM nie tylko potwierdził wzrost zainteresowania, ale również wykazał jego związek z systemem rekomendacji TikToka. Z naszych ustaleń wynika, że IMM nie przygotował takiego raportu.
  • Alert zawiera liczne nieprawdziwe, wprowadzające w błąd lub spekulatywne stwierdzenia, m.in.:
  • "Gdy nastolatek trafi na taki filmik, [...] algorytm to zauważa i zaczyna podsuwać kolejne podobne treści. Bez wyszukiwania, bez świadomej decyzji" - w znacznym stopniu wprowadza w błąd, jak wskazaliśmy powyżej, tworzy też błedne zrozumienie jak działa silnik rekomendacji TikToka.
  • "Algorytmy tworzą dla każdego osobną rzeczywistość. Twój TikTok pokazuje Ci śmieszne przepisy i filmiki. Ale TikTok Twojego dziecka może wyglądać zupełnie inaczej - pełen treści, które nigdy nie pojawią się na Twoim ekranie i warto abyś o tym wiedział/wiedziała" - Wszystkie platformy internetowe oferują podobne doświadczenie: treści będących dopasowanymi do preferencji użytkownika. Doświadczenie nastolatków na TikToku jest w rzeczywistości bardziej ograniczone i dostosowane pod względem rodzaju treści i dostępnych funkcji niż w przypadku kont dorosłych użytkowników.
  • "... wzrost zainteresowania takimi treściami zauważalny jest już od października, co być może jest także związane z promowaniem ich przez algorytmy TikToka" - brak dowodów na faktyczny wzrost zainteresowania omawianymi treściami, zarówno na TikToku, jak i poza nim. Jak wskazujemy, TikTok usuwa takie treści, nie je promuje.
  • "[...] nad szkodliwym algorytmem prawdopodobnie nie panuje lub nie chce panować sama platforma!" - stwierdzenie to jest czysto spekulatywne i niepoparte żadnymi dowodami.

Egzekwowanie zasad

Jak w przypadku każdego sygnału, który otrzymujemy od partnerów, społeczności lub instytucji zewnętrznych, zweryfikowaliśmy treści oznaczone wskazanymi hashtagami i usunęliśmy wszystkie materiały naruszające Zasady Społeczności. Prewencyjnie wprowadziliśmy także zmiany w mechanizmach wyszukiwania, aby ograniczyć potencjalny wzrost zainteresowania wynikający z nagłośnienia medialnego.

Nasze podejście do bezpieczeństwa

  • Przy wyszukiwaniu haseł takich jak np. #samobojstwo użytkownicy otrzymują wsparcie w aplikacji oraz są kierowani do lokalnych linii pomocowych i sprawdzonych źródeł wsparcia.
  • W sytuacjach, w których istnieje ryzyko zagrożenia zdrowia lub życia, nasze wyspecjalizowane zespoły stosują procedury reagowania w sytuacjach kryzysowych, w tym podejmują współpracę z lokalnymi służbami.
  • Twórcy publikujący treści naruszające zasady, dotyczące samookaleczeń otrzymują systemową notyfikację o dostępnych zasobach wsparcia i zachętę do skorzystania z profesjonalnej pomocy.
  • Wiemy, jak bardzo wspierająca potrafi być nasza społeczność wobec siebie nawzajem, dlatego opracowaliśmy specjalny zestaw narzędzi, który pomaga użytkownikom odpowiednio reagować, gdy ktoś z ich otoczenia zmaga się z myślami samobójczymi lub samookaleczeniem.
  • Jednym z nieodłącznych wyzwań każdego systemu rekomendacji jest dbanie o to, aby treści wyświetlane użytkownikom nie były zbyt wąskie pod względem tematycznym ani nadmiernie powtarzalne.
  • Rozumiemy, że powtarzalne treści o charakterze smutnym lub rezygnacyjnym mogą być problematyczne. Dlatego przerywamy schematy nadmiernej ekspozycji, zastępując je treściami o innej tematyce, tak aby zapewnić bardziej zróżnicowane doświadczenie.
  • Nasze systemy rozpoznają powtarzalne sygnały wśród kategorii tematycznych i zasobów które kwalifikują się do rekomendacji na kanale Dla Ciebie. Jeśli zidentyfikujemy wiele podobnych video w ramach tych tematyk, podmienimy je na video o innej tematyce, aby zmniejszyć częstotliwość takich rekomendacji i zapewnić bardziej zróżnicowane doświadczenie

Moderacja

  • W TikToku stosujemy proaktywne podejście do bezpieczeństwa. Łączymy zaawansowane systemy automatyczne z pracą tysięcy wyszkolonych moderatorów by wykrywać naruszenia naszych Zasad Społeczności i podjąć odpowiednią akcję.
  • Podczas gdy znakomita większość naruszających treści używana jest przez nas proaktywnie (bez zewnętrznego złoszenia), zachęcamy użytkowników do zgłaszania wszelkich treści budzących ich obawy lub naruszających Zasady Społeczności.
  • Dodatkowo uważnie monitorujemy treści zyskujące popularność, aby ograniczyć ryzyko rekomendowania materiałów nieodpowiednich dla szerokiego grona odbiorców.
  • W okresie kwiecień-czerwiec 2025 r.: 99,1% treści naruszających zasady dotyczące samookaleczeń i samobójstw usunęliśmy proaktywnie, 93,3% z nich nie uzyskało żadnych wyświetleń, 96,4% usunięto w ciągu 24 godzin.

Głos ekspertów

Eksperci z organizacji pozarządowych i niezależnych instytucji zajmujących się bezpieczeństwem dzieci i młodzieży wielokrotnie podkreślali w mediach, że rozpowszechnianie niezweryfikowanych alertów o rzekomych zagrożeniach online może przynieść więcej szkody niż pożytku. W debacie publicznej pojawiały się już liczne przykłady rzekomych „niebezpiecznych trendów”, które okazywały się błędnie przypisywane, wyolbrzymione lub całkowicie nieprawdziwe, tak jak „Niebieski Wieloryb”, „48 hours challenge” czy „Szon Patrol”. Specjaliści zwracają uwagę, że takie narracje mogą:

  • nieintencjonalnie wzbudzać ciekawość i zainteresowanie wśród młodych ludzi,
  • osłabiać zaufanie i jasność przekazu, gdy alarmistyczne doniesienia są później dementowane,
  • utrudniać dialog między dorosłymi a młodzieżą, który jest kluczowy dla skutecznego wsparcia w bezpieczeństwie w sieci.

Dlatego apelujemy do wszystkich interesariuszy, w tym mediów, o odpowiedzialne relacjonowanie takich tematów i unikanie niepotrzebnego wzmacniania niepotwierdzonej i potencjalnie szkodliwej narracji.

Autor: Jakub Krzyżak, Radio ESKA

Co MŁODZIEŻ sądzi o STARYCH ludziach?! STARZY VS MŁODZI | WYWIADEX Radio ESKA Iza Zabielska
Sonda
Korzystasz z TikToka?

Player otwiera się w nowej karcie przeglądarki