Opublikowano: 30 stycznia 2026
Ostatnia aktualizacja: 31 stycznia 2026
Niniejszy raport przejrzystości jest publikowany zgodnie z art. 7 ust. 2 i 3 rozporządzenia Parlamentu Europejskiego i Rady 2021/784 w sprawie przeciwdziałania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym („rozporządzenie”). Obejmuje ono okres sprawozdawczy rozpoczynający się 1 stycznia 2025 r. i kończący się 31 grudnia 2025 r.
Informacje ogólne
Artykuł 7 ust. 3 lit. a): informacje na temat środków wprowadzonych przez dostawcę usług hostingowych w związku z identyfikacją i usunięciem treści o charakterze terrorystycznym lub uniemożliwieniem dostępu do nich
Artykuł 7 ust. 3 lit. b): informacje na temat środków wprowadzonych przez dostawcę usług hostingowych w celu przeciwdziałania ponownemu pojawianiu się w Internecie materiałów, które wcześniej zostały usunięte lub do których dostęp został uniemożliwiony, ponieważ zostały one uznane za treści o charakterze terrorystycznym, w szczególności w przypadkach, w których zastosowano zautomatyzowane narzędzia
Na Snapchacie pojawia się bardzo niewielka ilość treści o charakterze terrorystycznym, a w 2025 r. nie otrzymaliśmy nakazu usunięcia treści na mocy rozporządzenia.
Terrorystom, organizacjom terrorystycznym i brutalnym ekstremistom zabrania się korzystania ze Snapchata. Treści promujące, gloryfikujące lub prezentujące terroryzm lub inne akty przemocy i czyny przestępcze są zabronione na mocy naszych Wytycznych dla społeczności. Użytkownicy mogą zgłaszać treści, które naruszają nasze Wytyczne dla społeczności, za pośrednictwem naszego menu zgłaszania w aplikacji i naszej strony wsparcia. Wykorzystujemy również proaktywne wykrywanie do identyfikowania treści stanowiących naruszenie prawa w sekcjach publicznych, takich jak Polecane i Odkrywaj.
Niezależnie od tego, w jaki sposób możemy dowiedzieć się o treściach stanowiących naruszenie prawa, nasze zespoły ds. bezpieczeństwa dokonują szybkiego przeglądu wykrytych treści i wdrażają decyzje egzekucyjne, wykorzystując w tym celu połączenie moderacji automatycznej i przeprowadzanej przez człowieka. Działania egzekucyjne mogą obejmować usunięcie treści, ostrzeżenie lub dezaktywację konta naruszającego prawo oraz, w uzasadnionych przypadkach, zgłoszenie konta organom ścigania. Aby zapobiec ponownemu pojawieniu się na Snapchacie treści o charakterze terrorystycznym lub innych brutalnych treści ekstremistycznych, oprócz współpracy z organami ścigania podejmujemy kroki mające na celu zablokowanie urządzenia powiązanego z kontem naruszającym prawo i uniemożliwienie użytkownikowi utworzenia innego konta na Snapchacie.
Dodatkowe informacje na temat naszych środków służących do identyfikacji i usuwania treści o charakterze terrorystycznym można znaleźć w naszym objaśnieniu dotyczącym treści związanych z mową nienawiści, terroryzmem i brutalnym ekstremizmem oraz naszym objaśnieniu dotyczącym moderacji, egzekwowania i odwołań.
Zgłoszenia i działania egzekucyjne
Artykuł 7 ust. 3 lit. c): liczba treści o charakterze terrorystycznym, które zostały usunięte lub do których uniemożliwiono dostęp w wyniku nakazów usunięcia lub środków szczególnych oraz liczba nakazów usunięcia, w przypadku których treści nie zostały usunięte ani dostęp do nich nie został uniemożliwiony zgodnie z art. 3 ust. 7 i 8, wraz z uzasadnieniem
W okresie sprawozdawczym firma Snap nie otrzymała żadnych nakazów usunięcia ani nie była zobowiązana do wdrożenia żadnych środków szczególnych zgodnie z art. 5 rozporządzenia. W związku z tym nie byliśmy zobowiązani do podjęcia działań egzekucyjnych na mocy rozporządzenia.
W poniższej tabeli opisano działania egzekucyjne podjęte na podstawie zgłoszeń użytkowników i proaktywnego wykrywania treści i kont, zarówno w UE, jak i w innych częściach świata, które naruszają nasze Wytyczne dla społeczności dotyczące terroryzmu i brutalnych treści ekstremistycznych.
Przyczyna w ramach polityki
Łączna liczba zgłoszeń dotyczących treści i kont
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Terroryzm i brutalny ekstremizm
511 176
32 948
21 895
Artykuł 7 ust. 3 lit. d): liczba i wynik skarg rozpatrzonych przez dostawcę usług hostingowych zgodnie z art. 10
Artykuł 7 ust. 3 lit. g): liczba przypadków, w których dostawca usług hostingowych przywrócił treści lub dostęp do nich po złożeniu skargi przez dostawcę treści
Ponieważ w okresie sprawozdawczym nie podjęliśmy żadnych działań egzekucyjnych wymaganych na mocy rozporządzenia zgodnie z powyższym opisem, nie rozpatrzyliśmy żadnych skarg na mocy art. 10 rozporządzenia i nie dokonaliśmy powiązanych z tym czynności przywrócenia.
Poniższa tabela zawiera informacje dotyczące odwołań i czynności przywrócenia, zarówno w UE, jak i w innych częściach świata, w odniesieniu do treści terrorystycznych i brutalnych treści ekstremistycznych podlegających nakazowi egzekucyjnemu na mocy Wytycznych dla społeczności.
Przyczyna w ramach polityki
Łączna liczba odwołań
Łączna liczba przywróceń
Łączna liczba podtrzymanych decyzji
Terroryzm i brutalny ekstremizm
GBM
22
536
Artykuł 7 ust. 3 lit. e): liczba i wynik administracyjnego lub sądowego postępowania odwoławczego wszczętego przez dostawcę usług hostingowych
Artykuł 7 ust. 3 lit. f): liczba przypadków, w których dostawca usług hostingowych był zobowiązany do przywrócenia treści lub dostępu do nich w wyniku administracyjnego lub sądowego postępowania odwoławczego
Ponieważ w okresie sprawozdawczym nie podjęliśmy żadnych działań egzekucyjnych wymaganych na mocy rozporządzenia, w związku z powyższym nie prowadziliśmy połączonych administracyjnych lub sądowych postępowań odwoławczych i nie byliśmy zobowiązani do przywrócenia treści w wyniku takiego postępowania.