Snap Values
Unia Europejska

Witamy na naszej stronie internetowej dotyczącej przejrzystości w Unii Europejskiej (UE), na której publikujemy informacje dotyczące poszczególnych krajów na mocy aktu o usługach cyfrowych, dyrektywy o audiowizualnych usługach multimedialnych, holenderskiej ustawy medialnej (DMA) oraz R w sprawie treści terrorystycznych online (TCO). Należy pamiętać, że najbardziej aktualne wersje raportów w sprawie przejrzystości można znaleźć w wersji anglojęzycznej.

Przedstawiciel prawny 

Firma Snap Group Limited wyznaczyła firmę Snap B.V. jako swojego przedstawiciela prawnego na potrzeby aktu o usługach cyfrowych. Z przedstawicielem można skontaktować się pod adresem e-mail dsa-enquiries [małpa] snapchat.com w sprawie aktu o usługach cyfrowych, pod adresem e-mail vsp-enquiries [małpa] snapchat.com w sprawie dyrektywy o audiowizualnych usługach multimedialnych i DMA, pod adresem e-mail tco-enquiries [małpa] snapchat.com w sprawie rozporządzenia dotyczącego treści o charakterze terrorystycznym w internecie, za pośrednictwem naszej Strony wsparcia tutaj lub pod adresem:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holandia

Jeśli reprezentują Państwo organy ścigania, proszę postępować zgodnie z instrukcjami opisanymi w tym dokumencie.

Prosimy o kontakt w języku angielskim lub niderlandzkim.

Organy regulacyjne

W przypadku DSA organem regulacyjnym jest Komisja Europejska oraz holenderski Urząd ds. Konsumentów i Rynków (ACM).  W kwestii AVMSD i DMA podlegamy jurysdykcji holenderskiego Urzędu ds. Mediów (CvdM). W przypadku TCO podlegamy jurysdykcji holenderskiego organu ds. zapobiegania treściom terrorystycznym w Internecie i materiałom związanym z wykorzystywaniem seksualnym dzieci (ATKM).

Raport w sprawie przejrzystości na podstawie aktu o usługach cyfrowych

Opublikowano: 28 lutego 2025 r.

Ostatnia aktualizacja: 23 kwietnia 2025 r. (wersja 2.0)

Cykl sprawozdawczy: 1 lipca 2024 r. - 31 grudnia 2024 r.

Publikujemy ten raport zgodnie z wymogami dotyczącymi przejrzystości określonymi w art. 15, 24 i 42 ustawy o usługach cyfrowych dla Unii Europejskiej (UE) (rozporządzenie (UE) 2022/2065) („DSA”). O ile nie zaznaczono inaczej, informacje zawarte w niniejszym raporcie dotyczą okresu sprawozdawczego od 1 lipca 2024 r. do 31 grudnia 2024 r. (druga połowa 2024 r.). 

1. Średnia liczba aktywnych odbiorców w skali miesiąca 
(Artykuły DSA 24.2 i 42.3)

Według stanu na 1 stycznia 2025 r., na terenie UE mamy średnio 92,9 mln aktywnych użytkowników („średnia miesięczna liczba aktywnych użytkowników”) naszej aplikacji Snapchat. Oznacza to, że w okresie ostatnich sześciu miesięcy zakończonym 31 grudnia 2024 r., średnio 93,7 mln zarejestrowanych użytkowników z UE otworzyło aplikację Snapchat co najmniej raz w ciągu danego miesiąca.

Jeśli chodzi o podział na państwa członkowskie, liczby te rozkładają się następująco:

Wartości te zostały obliczone na potrzeby zgodności z obowiązującymi wymogami ustanowionymi w akcie o usługach cyfrowych i należy je wykorzystywać wyłącznie do celów związanych z aktem. Z czasem zmieniliśmy sposób obliczania, w tym w odpowiedzi na zmieniającą się politykę wewnętrzną, wytyczne organów regulacyjnych i technologię, a dane liczbowe nie są przeznaczone do porównywania między okresami. Wartości mogą również różnić się od obliczeń wykorzystywanych w przypadku innych danych dotyczących aktywności użytkowników, które publikujemy w innych celach.

2. Wnioski od organów państw członkowskich
(art. 15 ust. 1 lit. a)

a) Nakazy podjęcia działań przeciwko nielegalnym treściom


W tym okresie sprawozdawczym (druga połowa 2024 roku) otrzymaliśmy zero (0) nakazów podjęcia działań przeciwko konkretnie zidentyfikowanym nielegalnym treściom od organów państw członkowskich UE, w tym nakazów wydanych zgodnie z art. 9 aktu o usługach cyfrowych. 

Ponieważ liczba ta wynosi zero (0), nie możemy przedstawić zestawienia w podziale na rodzaje nielegalnych treści lub państwo członkowskie wydające nakaz ani na średni czas potwierdzenia otrzymania lub wykonania nakazu.

b) Nakazy udzielenia informacji 

W tym okresie sprawozdawczym (druga połowa 2024 roku) otrzymaliśmy następujące nakazy ujawnienia danych użytkowników od organów państw członkowskich UE, w tym nakazy wydane zgodnie z art. 10 aktu o usługach cyfrowych:

Średni czas powiadomienia odpowiednich organów o otrzymaniu takich nakazów udzielenia informacji wyniósł 0 minut. Przesyłamy zautomatyzowaną odpowiedź potwierdzającą otrzymanie takich informacji. 

Średni czas wykonania nakazów udzielenia informacji wyniósł około 12 dni. Wskaźnik ten odzwierciedla okres od momentu otrzymania nakazu przez firmę Snap do momentu, w którym firma Snap uznała sprawę za całkowicie rozstrzygniętą, co w poszczególnych przypadkach może zależeć częściowo od szybkości odpowiedzi udzielanej przez organ danego państwa członkowskiego na wszelkie wnioski o wyjaśnienia od firmy Snap niezbędne do przetworzenia nakazu.

Należy pamiętać, że nie przedstawiamy podziału powyższych nakazów udzielenia informacji według rodzaju nielegalnych treści, ponieważ nie mamy dostępu do takich informacji.

3. Moderacja treści 


Wszystkie treści pojawiające się w dowolnym miejscu na Snapchacie muszą być zgodne z Wytycznymi dla społeczności i Regulaminem świadczenia usług. Niektóre treści muszą być również zgodne z dodatkowymi wytycznymi i zasadami. Na przykład treści przesłane w ramach rekomendacji algorytmicznych szerszej grupie odbiorców w naszych publicznych strefach nadawczych muszą spełniać dodatkowe, wyższe standardy określone w naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji, natomiast reklamy muszą być zgodne z naszą Polityką dotyczącą reklam.

Egzekwujemy te zasady za pomocą technologii i weryfikacji przez człowieka. Zapewniamy również użytkownikom oraz osobom niebędącym użytkownikami mechanizmy zgłaszania naruszeń, w tym treści niezgodnych z prawem, bezpośrednio w aplikacji lub za pośrednictwem naszej strony internetowej. Korzystamy również z proaktywnej technologii wykrywania szkód. Proaktywne mechanizmy wykrywania i zgłoszenia uruchamiają weryfikację, do której wykorzystuje się zestaw zautomatyzowanych narzędzi i moderatorów, aby następnie podjąć odpowiednie działania zgodnie z naszymi zasadami. 

Poniżej przedstawiamy dalsze informacje na temat naszej moderacji treści w H2 2024 r.

a) Zgłoszenia przesłane zgodnie z art. 16 aktu o usługach cyfrowych 
(art. 15 ust. 1 lit. b)

Zgodnie z art. 16 aktu o usługach cyfrowych firma Snap wprowadziła mechanizmy umożliwiające użytkownikom i osobom niebędącym użytkownikami zgłaszanie firmie Snap przypadków występowania na Snapchacie konkretnych informacji, które są przez nich uznawane za treści niezgodne z prawem. Można to zrobić, zgłaszając określone treści lub konta bezpośrednio w aplikacji Snapchat lub na naszej stronie internetowej. 

Przesyłając zgłoszenia w aplikacji lub za pośrednictwem naszej strony internetowej, osoby zgłaszające mogą wybrać konkretny powód zgłoszenia z menu opcji odzwierciedlających kategorie naruszeń wymienionych w naszych Wytycznych dla społeczności (np. mowa nienawiści, narkotyki). Nasze Wytyczne dla społeczności wprowadzają zakaz treści i działań, które są niezgodne z prawem w UE, dlatego nasze powody zgłaszania w znacznej mierze odzwierciedlają konkretne kategorie treści niezgodnych z prawem w UE. W zakresie, w jakim osoba zgłaszająca w UE uważa, że treści lub konto, które są przedmiotem zgłoszenia, są niezgodne z prawem z powodów niewymienionych w naszym menu zgłoszeń, może zgłosić takie treści jako „inne treści niezgodne z prawem” i mieć możliwość wyjaśnienia, dlaczego uważa, że zgłaszane przez nią treści są niezgodne z prawem.

W okresie sprawozdawczym (druga połowa 2024 roku) otrzymaliśmy następujące zgłoszenia przesłane zgodnie z art. 16 aktu o usługach cyfrowych w UE:

Poniżej przedstawiamy zestawienie odzwierciedlające sposób przetwarzania tych zgłoszeń (w ramach procesu, w którym uwzględniono weryfikację przez człowieka lub wyłącznie w sposób zautomatyzowany): 

Jeśli po weryfikacji stwierdzimy, że zgłoszone treści lub konto naruszają nasze Wytyczne dla społeczności (również z powodu niezgodności z prawem), możemy: (i) usunąć treści stanowiące naruszenie prawa, (ii) ostrzec odpowiedniego właściciela konta i podjąć działania wobec konta i/lub (iii) zablokować odpowiednie konto, co zostało dokładniej wyjaśnione w naszym serwisie dotyczącym moderacji, egzekwowania i wyjaśnień na temat odwołań

W drugiej połowie 2024 roku podjęliśmy następujące działania egzekucyjne po otrzymaniu zgłoszeń przesłanych zgodnie z art. 16 aktu o usługach cyfrowych w UE:

W drugiej połowie 2024 roku wszystkie zgłoszenia dotyczące „innych nielegalnych treści”, które rozpatrzyliśmy, zostały ostatecznie wykonane na mocy Wytycznych dla społeczności, ponieważ nasze Wytyczne dla społeczności zabraniają takich treści lub działań. W ten sposób skategoryzowaliśmy te nakazy egzekucyjne w odpowiedniej kategorii naruszeń Wytycznych dla społeczności, zawartej w powyższej tabeli.

Oprócz powyższych działań egzekucyjnych możemy podejmować działania w sprawie treści, które nam zgłoszono zgodnie z innymi obowiązującymi zasadami i wytycznymi Snap: 

  • W przypadku treści w naszych publicznych sekcjach transmisyjnych, jeśli stwierdzimy, że zgłaszane treści nie spełniają kryteriów kwalifikowalności do rekomendacji określonych w Wytycznych dotyczących treści, możemy odrzucić treści do rekomendacji algorytmicznej lub ograniczyć dystrybucję treści w celu wykluczenia niektórych odbiorców (jeśli treści spełniają nasze kryteria kwalifikowalności do rekomendacji, ale są w innych aspektach wrażliwe lub sugestywne).

W drugiej połowie 2024 roku podjęliśmy następujące działania w odniesieniu do treści w publicznych strefach nadawczych Snapchata, które zostały nam zgłoszone w UE, zgodnie z Wytycznymi dotyczącymi treści w zakresie kwalifikowalności rekomendacji:

  • Jeśli uznamy, że zgłoszona reklama narusza naszą Politykę dotyczącą reklam, po weryfikacji możemy ją usunąć. 


W drugiej połowie 2024 roku podjęliśmy następujące działania w odniesieniu do reklam zgłoszonych nam w UE:


b) Moderacja treści podejmowana z własnej inicjatywy firmy Snap 
(art. 15 ust. 1 lit. c)


Oprócz przeglądu powiadomień złożonych zgodnie z art. 16 Aktu o usługach cyfrowych, Snap angażuje się również w moderację treści z własnej inicjatywy. Poniżej przedstawiamy informacje o moderacji treści podejmowanej z własnej inicjatywy firmy Snap, w tym o wykorzystaniu zautomatyzowanych narzędzi, środkach podjętych w celu zapewnienia szkoleń i wsparcia osobom odpowiedzialnym za moderację treści oraz o liczbie i rodzajach ograniczeń nałożonych w wyniku proaktywnych działań w zakresie moderacji treści.

  • Wykorzystywanie zautomatyzowanych narzędzi do moderacji treści z własnej inicjatywy firmy Snap

Wdrażamy zautomatyzowane narzędzia do proaktywnego wykrywania i, w niektórych przypadkach, egzekwowania naruszeń naszych warunków i zasad. Narzędzia te obejmują narzędzia do dopasowywania hashów (w tym PhotoDNA i Google CSAI Match), Google Content Safety API, modele wykrywania obraźliwego języka (które wykrywają i odrzucają treści na podstawie zidentyfikowanej i regularnie aktualizowanej listy obraźliwych słów kluczowych i emoji) oraz technologie wykorzystujące sztuczną inteligencję, uczenie maszynowe i duże modele językowe. Nasze zautomatyzowane narzędzia są zaprojektowane do wykrywania przypadków naruszenia naszych Wytycznych dla społeczności (które między innymi zawierają zakaz treści niezgodnych z prawem) oraz, w stosownych przypadkach, naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji i Polityki dotyczącej reklam.

W drugiej połowie 2024 roku wszystkie nasze proaktywne działania w zakresie wykrywania były prowadzone przy użyciu zautomatyzowanych narzędzi. Gdy nasze zautomatyzowane narzędzia wykryją potencjalne naruszenie naszych zasad, automatycznie podejmują działania zgodne z naszymi zasadami lub tworzą zadanie do weryfikacji przez człowieka. Poniżej opisano liczbę i rodzaje ograniczeń nałożonych w wyniku tego procesu. 

  • Liczba i rodzaje ograniczeń nałożonych z własnej inicjatywy firmy Snap

W drugiej połowie 2024 roku Snap podjął następujące działania egzekucyjne w następstwie proaktywnego wykrycia naruszeń naszych Wytycznych dla społeczności (w tym naruszeń odpowiadających nielegalnym treściom i działaniom na mocy prawa UE i państw członkowskich):

Ponadto w drugiej połowie 2024 roku podjęliśmy następujące działania w odniesieniu do treści w naszych publicznych strefach nadawczych w następstwie wykrycia na Snapchacie przy użyciu narzędzi zautomatyzowanych przypadków naruszenia naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji:

* Jak stwierdzono w naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji, konta naruszające nasze Wytyczne w sposób ewidentny lub powtarzający się mogą zostać czasowo lub na stałe wykluczone z rekomendacji w naszych publicznych strefach nadawczych.  Działanie to podejmujemy w ramach proaktywnych działań moderacyjnych.

Ponadto w drugiej połowie 2024 roku podjęliśmy następujące działania w następstwie proaktywnego wykrycia na Snapchacie przypadków naruszenia naszej Polityki dotyczącej reklam przy użyciu zautomatyzowanych narzędzi:

  • Środki podjęte w celu zapewnienia szkoleń i wsparcia osobom odpowiedzialnym za moderację treści

Nasze zespoły odpowiedzialne za moderację treści stosują nasze zasady moderacji treści, aby pomóc chronić naszą społeczność na Snapchacie. Członkowie zespołu wzięli udział w kilkutygodniowych szkoleniach, podczas których zapoznali się z obowiązującymi w firmie Snap zasadami, narzędziami i procedurami przekazywania treści na wyższy poziom. Członkowie naszych zespołów moderatorów regularnie uczestniczą w szkoleniach przypominających z zakresu dotyczących ich przepływów pracy, zwłaszcza sytuacji, kiedy mamy do czynienia z przypadkami granicznymi i zależnymi od kontekstu. Ponadto prowadzimy programy podnoszenia kwalifikacji, sesje poświadczające oraz quizy. Chcemy w ten sposób dopilnować, aby każdy moderator miał aktualną wiedzę i był zaznajomiony z aktualizacjami naszych zasad. Natomiast gdy pojawią się oparte na bieżących wydarzeniach trendy w treści, błyskawicznie rozpowszechniamy objaśnienia do polityki, aby nasze zespoły mogły reagować zgodnie z zasadami firmy Snap.

Zapewniamy naszym moderatorom znaczące wsparcie i zasoby, w tym wsparcie w zakresie dobrego samopoczucia w miejscu pracy i łatwego dostępu do usług związanych ze zdrowiem psychicznym. 

c) Skargi otrzymane w ramach wewnętrznych systemów rozpatrywania skarg w Snap (tj. odwołań) 
(art. 15 ust. 1 lit. d))


Użytkownicy, których konta zostały zablokowane przez nasze zespoły ds. bezpieczeństwa w związku z naruszeniem Wytycznych dla społeczności (w tym w związku z nielegalnymi treściami i działaniami), mogą przesłać odwołanie od decyzji o zablokowaniu konta. Użytkownicy mogą również odwołać się od określonych decyzji o moderacji treści.

W okresie sprawozdawczym (druga połowa 2024 roku) firma Snap rozpatrzyła następujące odwołania (w tym odwołania od decyzji o zablokowaniu konta i moderacji na poziomie treści) złożone za pośrednictwem wewnętrznych systemów rozpatrywania skarg w UE:

d) Wykorzystywanie rozwiązań zautomatyzowanych na potrzeby moderacji treści 
(art. 15 ust. 1 lit. e i art. 42 ust. 2 lit. c)

  • Opis jakościowy i cele

Jak wyjaśniono powyżej w sekcji 3 lit. b, stosujemy zautomatyzowane narzędzia do proaktywnego wykrywania naruszeń naszych warunków i zasad, a w niektórych przypadkach także do działań egzekucyjnych. Narzędzia te obejmują narzędzia do dopasowywania hashów (w tym PhotoDNA i Google CSAI Match), Google Content Safety API, modele wykrywania obraźliwego języka (które wykrywają i odrzucają treści na podstawie zidentyfikowanej i regularnie aktualizowanej listy obraźliwych słów kluczowych i emoji) oraz technologie wykorzystujące sztuczną inteligencję, uczenie maszynowe i duże modele językowe. Nasze zautomatyzowane narzędzia są zaprojektowane do wykrywania przypadków naruszenia naszych Wytycznych dla społeczności (które między innymi zawierają zakaz treści niezgodnych z prawem) oraz, w stosownych przypadkach, naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji i Polityki dotyczącej reklam.

Gdy nasze zautomatyzowane narzędzia wykryją potencjalne naruszenie naszych zasad, automatycznie podejmują działania zgodne z naszymi zasadami lub tworzą zadanie do weryfikacji przez człowieka.

  • Wskaźniki dokładności i możliwego poziomu błędu, w podziale na państwa członkowskie

Monitorujemy wskaźniki dokładności i możliwego poziomu błędu naszych zautomatyzowanych narzędzi do moderacji, wybierając losowo próbki zadań przetwarzanych przez nasze zautomatyzowane narzędzia w naszych sekcjach publicznych i przesyłając je do ponownego przeglądu przez nasze ludzkie zespoły moderacyjne. Wskaźnik dokładności to odsetek zadań z tych losowych próbek, które uzyskały potwierdzenie, że mają prawidłowe decyzje o moderacji po ponownym sprawdzeniu przez moderatorów. Wskaźnik błędu stanowi różnicę między wartością 100% a wartością wskaźnika dokładności obliczoną zgodnie z powyższym opisem. 

Monitorujemy dokładność i możliwy poziom błędu dla dwóch szerokich kategorii zautomatyzowanych narzędzi do moderacji, a mianowicie:

  • Zautomatyzowane narzędzia do wykrywania naruszeń naszych Wytycznych dla społeczności i/lub ich przestrzegania i mogą prowadzić do działań przeciwko konta użytkownika (np. ostrzeżenia stosowane wobec konta lub jego zablokowanie). Jak wynika z badań próbek, w drugiej połowie 2024 roku wskaźnik dokładności tych zautomatyzowanych narzędzi wyniósł około 95%, a poziom błędu wyniósł około 5%.

  • Zautomatyzowane narzędzia, które wykrywają treści w naszych publicznych sekcjach publicznych i/lub podejmują w ich sprawie działania na podstawie naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji. Z badań wynika, że w drugiej połowie 2024 roku wskaźnik dokładności tych zautomatyzowanych narzędzi wyniósł około 85%, a poziom błędu wyniósł około 15%.

Jak wynika z badań próbek, w drugiej połowie 2024 roku łączny wskaźnik dokładności zautomatyzowanych narzędzi stosowanych w obu powyższych kategoriach wyniósł około 89%, a poziom błędu wyniósł około 11%.


Zasadniczo nie śledzimy danych dotyczących języka moderowanych przez nas treści na Snapchacie, w związku z czym nie możemy przedstawić zestawienia wskaźników dokładności i błędu w naszych zautomatyzowanych narzędziach do moderacji w odniesieniu do każdego języka urzędowego państw członkowskich.  Jako dowód popierający te informacje przedstawiamy poniżej zestawienie naszych łącznych wskaźników dokładności i błędu dla automatycznie moderowanych treści (zarówno w naszych Wytycznych dla społeczności, jak i w naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji) pochodzących z każdego państwa członkowskiego.

  • Zabezpieczenia

Zdajemy sobie sprawę z potencjalnego wpływu zautomatyzowanych narzędzi moderacji na prawa podstawowe i stosujemy zabezpieczenia w celu minimalizacji tego wpływu.

Nasze zautomatyzowane narzędzia do moderacji treści są poddawane testom przed ich wdrożeniem. Modele są testowane pod kątem wydajności w trybie offline i wdrażane w ramach testów A/B, aby zapewnić ich prawidłowe działanie przed pełnym wdrożeniem do produkcji. Przeprowadzamy wstępne przeglądy jakości (QA), przeglądy uruchomienia i bieżące kontrole dokładności podczas wdrożeń częściowych (etapowych).

Po uruchomieniu naszych zautomatyzowanych narzędzi na bieżąco oceniamy ich wydajność i dokładność oraz wprowadzamy niezbędne zmiany. Proces ten obejmuje ponowną weryfikację próbek zautomatyzowanych zadań przez naszych moderatorów w celu identyfikacji modeli, które wymagają korekt, i poprawy ich dokładności. Monitorujemy również występowanie określonych szkód na Snapchacie za pomocą losowego doboru codziennych próbek treści publicznych i wykorzystujemy te informacje do identyfikacji obszarów wymagających dalszych ulepszeń. 

Nasze zasady i systemy opierają się na spójnych i uczciwych działaniach egzekucyjnych, przeprowadzanych również przez nasze zautomatyzowane narzędzia. Zapewniamy naszym użytkownikom okazję do skutecznego odwołania się od wyników egzekucji za pośrednictwem procedur zgłoszeń i odwołań. Ich celem jest zabezpieczenie interesów naszej społeczności, przy jednoczesnej ochronie praw pojedynczych użytkowników.

Staramy się stale ulepszać nasze zautomatyzowane narzędzia do moderacji treści, aby poprawić ich dokładność i wspomagać konsekwentne i uczciwe egzekwowanie naszych zasad.

e) Spory skierowane do organów pozasądowego rozstrzygania sporów na podstawie art. 21
(art. 24 ust. 1 lit. a)

W okresie sprawozdawczym (druga połowa 2024 roku) dostarczamy następujące informacje na temat sporów przedłożonych przeciwko Snap instytucjom zajmującym się pozasądowym rozstrzyganiem sporów, o których mowa w art. 21 aktu o usługach cyfrowych:

Powyższa tabela odzwierciedla status sporów przedłożonych certyfikowanym organom pozasądowego rozstrzygania sporów na mocy art. 21 aktu o usługach cyfrowych na dzień 31 grudnia 2024 r. w okresie sprawozdawczym (druga połowa 2024 roku). Według stanu na 31 grudnia 2024 r. spośród 20 sporów przedłożonych takim organom w drugiej połowie 2024 r. 15 było w toku, a 5 zostało rozstrzygniętych przed wydaniem decyzji.

Zwracamy uwagę, że nie uwzględniamy w powyższej tabeli skarg, które zostały przedłożone certyfikowanemu organowi działającemu na mocy art. 21, ale które zostały uznane przez odpowiedni organ za niedopuszczalne przed przesłaniem ich do Snap. Nie możemy potwierdzić liczby sporów mieszczących się w tej kategorii, ponieważ niektóre, ale nie wszystkie, certyfikowane organy zgłaszają Snap o takich sporach. Wiemy jednak o 6 skarg należących do tej kategorii w drugiej połowie 2024 roku.

f) Zawieszenie świadczenia usług zastosowane zgodnie z art. 23 
(art. 24 ust. 1 lit. b)
  • Zawieszenie świadczenia usług zgodnie z art. 23 ust. 1: zawieszenie kont, które często dostarczają treści o charakterze wyraźnie niezgodnym z prawem 

Jak wyjaśniono w naszym poradniku dotyczącym moderacji, egzekwowania i odwołań, konta, które według naszych ustaleń są wykorzystywane w sposób naruszający przede wszystkim nasze Wytyczne dla społeczności (zawierające między innymi postanowienie o treściach, które są wyraźnie niezgodne z prawem), i konta, które prowadzą do poważnych szkód, są natychmiast wyłączane. W przypadku innych naruszeń naszych Wytycznych dla społeczności firma Snap stosuje zasadniczo trzyczęściową procedurę egzekwowania zasad:

  • Etap pierwszy: usunięcie treści naruszających zasady.

  • Etap drugi: użytkownik otrzymuje powiadomienie z informacją, że naruszył nasze Wytyczne dla społeczności, że jego treści zostały usunięte, a jego treści zostały usunięte, a jego treści zostaną podjęte dodatkowe działania egzekucyjne, w tym zablokowanie konta.

  • Etap trzeci: nasz zespół odnotowuje przewinienie dla konta danego użytkownika.

Informacje dotyczące liczby strajków (tj. ostrzeżeń) i blokad nałożonych w drugiej połowie 2024 roku na kontach w UE można znaleźć powyżej, w sekcji 3 lit. a i 3 lit. b.

  • Zawieszenia przeprowadzone zgodnie z art. 23 ust. 2: zawieszenia w wyniku rozpatrzenia zgłoszeń i skarg od osób fizycznych, podmiotów i osób, które często przesyłają zgłoszenia i skargi o wyraźnie bezpodstawnym charakterze

Stosując naszą wewnętrzną definicję „wyraźnie bezpodstawnego charakteru” zgłoszeń i skarg oraz nasze wewnętrzne progi tego, co uważamy za częste przesyłanie takich zgłoszeń i skarg, ustaliliśmy, że liczba zawieszeń w wyniku rozpatrzenia zgłoszeń i skarg przesłanych w drugim półroczu 2024 roku na podstawie art. 23 ust. 2 aktu o usługach cyfrowych wyniosła:

4. Informacje o naszych zespołach odpowiedzialnych za moderację treści 
a) Pracownicy zajmujący się moderacją treści, w tym zapewnieniem zgodności z art. 16, 20 i 22 aktu o usługach cyfrowych, w podziale na języki urzędowe państw członkowskich
(art. 42 ust. 2 lit. a)


Nasze zespoły moderatorów treści działają na całym świecie przez całą dobę i we wszystkie dni tygodnia, zapewniając bezpieczeństwo naszej społeczności. Poniżej przedstawiamy podział pracowników zajmujących się moderacją według specjalności językowych moderatorów (należy pamiętać, że niektórzy moderatorzy specjalizują się w kilku językach) – stan na 31 grudnia 2024 r.:

W powyższej tabeli uwzględniono wszystkich pracowników zajmujących się moderacją treści, którzy od 31 grudnia 2024 r. obsługują języki urzędowe państw członkowskich UE. Gdy potrzebujemy dodatkowego wsparcia językowego, korzystamy z usług tłumaczeniowych.

b) Kwalifikacje i znajomość języków wśród moderatorów treści; zapewnione szkolenia i wsparcie
(art. 42 ust. 2 lit. b))

Moderatorów rekrutujemy za pomocą standardowego opisu oferty pracy, zawierającego wymóg językowy (w zależności od potrzeby). Wymóg znajomości języka stanowi, że kandydat powinien umieć wykazać się biegłą znajomością języka w <segsep>w przypadku stanowisk poziomu podstawowego kandydaci muszą mieć co najmniej roczne doświadczenie zawodowe. Ponadto jeśli kandydaci chcą być brani pod uwagę, muszą spełnić wymogi związane z wykształceniem. Muszą również wykazać się zrozumieniem aktualnych wydarzeń w kraju lub regionie, którego treści będą moderować. 


Informacje na temat szkoleń i wsparcia zapewnianego przez Snap moderatorom treści są wymagane oddzielnie na mocy artykułu 15 ust. 1 lit. c) aktu o usługach cyfrowych i tym samym zostały ujęte w sekcji 3 lit. b), w ostatniej podsekcji: „Środki podjęte w celu zapewnienia szkoleń i wsparcia osobom odpowiedzialnym za moderację treści

Raport dotyczący skanowania mediów pod kątem seksualnego wykorzystywania i niegodziwego traktowania dzieci (CSEA)

Opublikowano: 31 stycznia 2025 r.

Ostatnia aktualizacja: 31 stycznia 2025 r.

Niniejszy raport obejmuje okres od 1 stycznia 2024 r. do 31 grudnia 2024 r.

Tło

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne i niegodziwe traktowanie dzieci (CSEA) na platformie Snap jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.


Używane przez nas technologie obejmują (a) PhotoDNA opierające się na szybkim dopasowaniu haszów oraz CSAI Match firmy Google do identyfikowania znanych nielegalnych obrazów i filmów zawierających CSEA; oraz (b) Content Safety API firmy Google do identyfikowania nowych, wcześniej nieprzeanalizowanych obrazów CSEA. Obrazy zawierające wykorzystywanie seksualne dzieci zgłaszamy do amerykańskiej organizacji National Center for Missing and Exploited Children (Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych) (NCMEC), zgodnie z wymogami przepisów prawa. Z kolei NCMEC współpracuje z organami ścigania w USA i innych krajach, w zależności od potrzeb.


Raport

Poniższa tabela zawiera dane dotyczące proaktywnego wykrywania i wynikających z tego działań egzekucyjnych wobec użytkowników z UE w odniesieniu do obrazów zawierających CSEA w 2024 r. (Należy pamiętać, że niektóre działania wynikające ze wspomnianego proaktywnego wykrywania w 2024 r. mogą nadal podlegać odwołaniu w dniu sporządzenia niniejszego raportu i dlatego nie będą odzwierciedlone w poniższych danych dotyczących odwołań i przywróceń).

*W tej kategorii opisujemy egzekwowanie przepisów za naruszenie Wytycznych dla społeczności Snap zakazujących wykorzystywania seksualnego dzieci.  Proaktywnie wykryte treści, wobec których podejmowane są działania w związku z innymi naruszeniami Wytycznych dla społeczności Snap, nie są zgłaszane tutaj.

**Podjęte działania mogą zostać unieważnione, jeśli uznamy, że były błędne na podstawie naszych zasad obowiązujących w momencie podjęcia działań lub jeśli uznamy, że zostały one prawidłowo zastosowane początkowo, ale nasze stosowne zasady zmieniły się w momencie rozpatrywania odwołania.

Zabezpieczenia dotyczące moderowania treści

Zabezpieczenia zastosowane w ramach skanowania mediów pod kątem wykorzystywania seksualnego dzieci są określone w powyższym raporcie przejrzystości na podstawie unijnego aktu o usługach cyfrowych.

Raport przejrzystości dotyczący treści terrorystycznych w Internecie w Unii Europejskiej

Opublikowano: 28 lutego 2025 r.

Ostatnia aktualizacja: 28 lutego 2025 r.

Cykl sprawozdawczy: 1 lipca 2024 r. - 31 grudnia 2024 r.

Niniejszy raport przejrzystości jest publikowany zgodnie z art. 7 ust. 2 i 3 rozporządzenia Parlamentu Europejskiego i Rady 2021/784 w sprawie przeciwdziałania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym („rozporządzenie”). Opisuje on okres sprawozdawczy od 1 stycznia do 31 grudnia 2024 r.

Informacje ogólne
  • Artykuł 7 ust. 3 lit. a): informacje na temat środków wprowadzonych przez dostawcę usług hostingowych w związku z identyfikacją i usunięciem treści o charakterze terrorystycznym lub uniemożliwieniem dostępu do nich

  • Artykuł 7 ust. 3 lit. b): informacje na temat środków wprowadzonych przez dostawcę usług hostingowych w celu przeciwdziałania ponownemu pojawianiu się w Internecie materiałów, które wcześniej zostały usunięte lub do których dostęp został uniemożliwiony, ponieważ zostały one uznane za treści o charakterze terrorystycznym, w szczególności w przypadkach, w których zastosowano zautomatyzowane narzędzia


W serwisie Snapchat występuje bardzo niewielka ilość treści o charakterze terrorystycznym i w 2024 r. nie otrzymał on nakazu usunięcia treści na mocy rozporządzenia.

Terrorystom, organizacjom terrorystycznym i brutalnym ekstremistom zabrania się korzystania ze Snapchata. Treści promujące, gloryfikujące lub prezentujące terroryzm lub inne akty przemocy i czyny przestępcze są zabronione na mocy naszych Wytycznych dla społeczności. Użytkownicy mogą zgłaszać treści, które naruszają nasze Wytyczne dla społeczności, za pośrednictwem naszego menu zgłaszania w aplikacji i naszej strony wsparcia. Wykorzystujemy również proaktywne wykrywanie do identyfikowania treści stanowiących naruszenie prawa w sekcjach publicznych, takich jak Polecane i Odkrywaj.


Niezależnie od tego, w jaki sposób możemy dowiedzieć się o treściach stanowiących naruszenie prawa, nasze zespoły ds. bezpieczeństwa dokonują szybkiego przeglądu wykrytych treści i wdrażają decyzje egzekucyjne, wykorzystując w tym celu połączenie moderacji automatycznej i przeprowadzanej przez człowieka. Działania egzekucyjne mogą obejmować usunięcie treści, ostrzeżenie lub dezaktywację konta naruszającego prawo oraz, w uzasadnionych przypadkach, zgłoszenie konta organom ścigania. Aby zapobiec ponownemu pojawieniu się na Snapchacie treści o charakterze terrorystycznym lub innych brutalnych treści ekstremistycznych, oprócz współpracy z organami ścigania podejmujemy kroki mające na celu zablokowanie urządzenia powiązanego z kontem naruszającym prawo i uniemożliwienie użytkownikowi utworzenia innego konta na Snapchacie. 


Dodatkowe informacje na temat naszych środków służących do identyfikacji i usuwania treści o charakterze terrorystycznym można znaleźć w naszym poradniku dotyczącym treści związanych z mową nienawiści, terroryzmem i brutalnym ekstremizmem oraz naszym poradniku dotyczącym moderacji, egzekwowania i odwołań



Zgłoszenia i działania egzekucyjne 
  • Artykuł 7 ust. 3 lit. c): liczba treści o charakterze terrorystycznym, które zostały usunięte lub do których uniemożliwiono dostęp w wyniku nakazów usunięcia lub środków szczególnych oraz liczba nakazów usunięcia, w przypadku których treści nie zostały usunięte ani dostęp do nich nie został uniemożliwiony zgodnie z art. 3 ust. 7 i 8, wraz z uzasadnieniem


W okresie sprawozdawczym firma Snap nie otrzymała żadnych nakazów usunięcia ani nie była zobowiązana do wdrożenia żadnych środków szczególnych zgodnie z art. 5 rozporządzenia. W związku z tym nie byliśmy zobowiązani do podjęcia działań egzekucyjnych na mocy rozporządzenia.

W poniższej tabeli opisano działania egzekucyjne podjęte na podstawie zgłoszeń użytkowników i proaktywnego wykrywania treści i kont, zarówno w UE, jak i w innych częściach świata, które naruszają nasze Wytyczne dla społeczności dotyczące terroryzmu i brutalnych treści ekstremistycznych.

Odwołania od nakazu egzekucyjnego
  • Artykuł 7 ust. 3 lit. d): liczba i wynik skarg rozpatrzonych przez dostawcę usług hostingowych zgodnie z art. 10

  • Artykuł 7 ust. 3 lit. g): liczba przypadków, w których dostawca usług hostingowych przywrócił treści lub dostęp do nich po złożeniu skargi przez dostawcę treści

Ponieważ w okresie sprawozdawczym nie podjęliśmy żadnych działań egzekucyjnych wymaganych na mocy rozporządzenia zgodnie z powyższym opisem, nie rozpatrzyliśmy żadnych skarg na mocy art. 10 rozporządzenia i nie dokonaliśmy powiązanych z tym czynności przywrócenia.

Poniższa tabela zawiera informacje dotyczące odwołań i czynności przywrócenia, zarówno w UE, jak i w innych częściach świata, w odniesieniu do treści terrorystycznych i brutalnych treści ekstremistycznych podlegających nakazowi egzekucyjnemu na mocy Wytycznych dla społeczności.

Postępowania sądowe i odwołania
  • Artykuł 7 ust. 3 lit. e): liczba i wynik administracyjnego lub sądowego postępowania odwoławczego wszczętego przez dostawcę usług hostingowych

  • Artykuł 7 ust. 3 lit. f): liczba przypadków, w których dostawca usług hostingowych był zobowiązany do przywrócenia treści lub dostępu do nich w wyniku administracyjnego lub sądowego postępowania odwoławczego

Ponieważ w okresie sprawozdawczym nie podjęliśmy żadnych działań egzekucyjnych wymaganych na mocy rozporządzenia, w związku z powyższym nie prowadziliśmy połączonych administracyjnych lub sądowych postępowań odwoławczych i nie byliśmy zobowiązani do przywrócenia treści w wyniku takiego postępowania.

Ocena ryzyka związanego z Aktem o usługach cyfrowych

Niniejszy raport został sporządzony w celu spełnienia zobowiązań Snap wynikających z art. 34 i 35 rozporządzenia (UE) nr 2022/2065 i zawiera wyniki oceny ryzyka systemowego wynikającego z projektu platform internetowych Snapchata, ich działania i użytkowania oraz przedstawia metodologię stosowaną do oceny tego ryzyka, a także środki zastosowane w celu jego zmniejszenia.


Raport dotyczący oceny ryzyka związanego z Aktem o usługach cyfrowych oraz środków zmniejszających ryzyko | Snapchat | Sierpień 2023 r. (PDF)


Audyt z zakresu Aktu o usługach cyfrowych i wdrożenie wyników audytu

Raporty te zostały sporządzone w celu spełnienia zobowiązań Snap wynikających z art. 37 rozporządzenia (UE) nr 2022/2065 i zawierają: (i) wyniki niezależnego audytu zgodności firmy Snap z obowiązkami określonymi w rozdziale III rozporządzenia (UE) nr 2022/2065 oraz (ii) środki podjęte w celu wdrożenia zaleceń operacyjnych uzyskanych w ramach tego niezależnego audytu.

Raport dotyczący niezależnego audytu w zakresie Aktu o usługach cyfrowych | Snapchat | Sierpień 2024 r. (PDF)

Raport z wdrożenia wyników audytu w zakresie Aktu o usługach cyfrowych | Snapchat | Wrzesień 2024 r. (PDF)



Kodeks postępowania dotyczący usług platformy udostępniania wideo (VSP) w UE

Snap jest dostawcą „usługi platformy udostępniania wideo” („VSP”) zgodnie z art. 1 ust. 1 lit. aa dyrektywy o audiowizualnych usługach medialnych (AVMSD). Niniejszy Kodeks postępowania („Kodeks”) został przygotowany w celu opisania, w jaki sposób Snap przestrzega swoich zobowiązań jako VSP, które wynikają z holenderskiej ustawy o mediach („DMA”) oraz dyrektywy (UE) 2010/13 ze zmianami wprowadzonymi przez dyrektywę (UE) 2018/1808 („dyrektywa o audiowizualnych usługach medialnych” lub „AVMSD”). Kodeks ma zastosowanie w Unii Europejskiej oraz w Europejskim Obszarze Gospodarczym.

Kodeks postępowania dotyczący VSP w UE | Snapchat | Marzec 2025 r. (PDF)

bułgarski | chorwacki | czeski | duński | niderlandzki | estoński | fiński | francuski | niemiecki | grecki | węgierski | irlandzki | włoski | łotewski | litewski | maltański | polski | portugalski | rumuński | słowacki | słoweński | hiszpański | szwedzki