Privacy, Safety, and Policy Hub
Unia Europejska
1 stycznia 2024 r. – 30 czerwca 2024 r.

Wydano:

25 października 2024 r.

Zaktualizowano:

17 grudnia 2024 r.

Witamy na naszej stronie internetowej dotyczącej przejrzystości w Unii Europejskiej (UE), na której publikujemy informacje dotyczące poszczególnych krajów na mocy aktu o usługach cyfrowych, dyrektywy o audiowizualnych usługach multimedialnych, holenderskiej ustawy medialnej (DMA) oraz w sprawie przeciwdziałania rozpowszechnianiu w internecie treści o charakterze terrorystycznym. Należy pamiętać, że najbardziej aktualne wersje raportów w sprawie przejrzystości można znaleźć w wersji anglojęzycznej.

Przedstawiciel prawny 

Firma Snap Group Limited wyznaczyła firmę Snap B.V. jako swojego przedstawiciela prawnego na potrzeby aktu o usługach cyfrowych. Z przedstawicielem można skontaktować się pod adresem e-mail dsa-enquiries [małpa] snapchat.com w sprawie aktu o usługach cyfrowych, pod adresem e-mail vsp-enquiries [małpa] snapchat.com w sprawie dyrektywy o audiowizualnych usługach multimedialnych i DMA, pod adresem e-mail tco-enquiries [małpa] snapchat.com w sprawie rozporządzenia dotyczącego treści o charakterze terrorystycznym w internecie, za pośrednictwem naszej Strony wsparcia tutaj lub pod adresem:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

Jeśli reprezentują Państwo organy ścigania, proszę postępować zgodnie z instrukcjami opisanymi w tym dokumencie.

Prosimy o kontakt w języku angielskim lub niderlandzkim.

Organy regulacyjne

W przypadku DSA organem regulacyjnym jest Komisja Europejska oraz holenderski Urząd ds. Konsumentów i Rynków (ACM).  W kwestii AVMSD i DMA podlegamy jurysdykcji holenderskiego Urzędu ds. Mediów (CvdM). W przypadku TCO podlegamy jurysdykcji holenderskiego organu ds. zapobiegania treściom terrorystycznym w Internecie i materiałom związanym z wykorzystywaniem seksualnym dzieci (ATKM).

Raport w sprawie przejrzystości na podstawie aktu o usługach cyfrowych

Ostatnia aktualizacja: 25 października 2024 r.

Publikujemy ten raport w sprawie naszych działań w zakresie moderacji treści na Snapchacie zgodnie z wymogami przejrzystości w zakresie sprawozdawczości przewidzianymi w art. 15, 24 i 42 aktu o usługach cyfrowych Unii Europejskiej (rozporządzenie (UE) 2022/2065) („akt o usługach cyfrowych”). O ile nie zaznaczono inaczej, informacje zawarte w niniejszym raporcie dotyczą okresu sprawozdawczego od 1 stycznia 2024 r. do 30 czerwca 2024 r. (1. półrocze 2024 roku) i obejmują moderację treści w zakresie funkcji Snapchata regulowanych w akcie o usługach cyfrowych. 

Nieustannie dążymy do poprawy naszych sprawozdań. W tym okresie sprawozdawczym (pierwsza połowa 2024 roku) wprowadziliśmy zmiany w strukturze naszego raportu, który zawiera teraz nowe, bardziej zróżnicowane tabele, które zapewniają lepszy wgląd w nasze działania w zakresie moderacji treści. 

1. Średnia liczba aktywnych odbiorców w skali miesiąca 
(Artykuły DSA 24.2 i 42.3)


Według stanu na 1 października 2024 r., na terenie UE mamy średnio 92,9 mln aktywnych użytkowników („średnia miesięczna liczba aktywnych użytkowników”) naszej aplikacji Snapchat. Oznacza to, że w okresie ostatnich sześciu miesięcy zakończonym 30 września 2024 r., średnio 92,9 mln zarejestrowanych użytkowników z UE otworzyło aplikację Snapchat co najmniej raz w ciągu danego miesiąca.

Jeśli chodzi o podział na państwa członkowskie, liczby te rozkładają się następująco:

Wartości te zostały obliczone na potrzeby zgodności z obowiązującymi wymogami ustanowionymi w akcie o usługach cyfrowych i należy je wykorzystywać wyłącznie do celów związanych z aktem. Z czasem zmieniliśmy sposób obliczania, w tym w odpowiedzi na zmieniającą się politykę wewnętrzną, wytyczne organów regulacyjnych i technologię, a dane liczbowe nie są przeznaczone do porównywania między okresami. Wartości mogą również różnić się od obliczeń wykorzystywanych w przypadku innych danych dotyczących aktywności użytkowników, które publikujemy w innych celach.

2. Wnioski od organów państw członkowskich
(art. 15 ust. 1 lit. a)
a) Nakazy podjęcia działań przeciwko nielegalnym treściom


W tym okresie sprawozdawczym (pierwsza połowa 2024 roku) otrzymaliśmy zero (0) nakazów podjęcia działań przeciwko konkretnie zidentyfikowanym nielegalnym treściom od organów państw członkowskich UE, w tym nakazów wydanych zgodnie z art. 9 aktu o usługach cyfrowych. 

Ponieważ liczba ta wynosi zero (0), nie możemy przedstawić zestawienia w podziale na rodzaje nielegalnych treści lub państwo członkowskie wydające nakaz ani na średni czas potwierdzenia otrzymania lub wykonania nakazu.

b) Nakazy udzielenia informacji 


W tym okresie sprawozdawczym (pierwsza połowa 2024 roku) otrzymaliśmy następujące nakazy ujawnienia danych użytkowników od organów państw członkowskich UE, w tym nakazy wydane zgodnie z art. 10 aktu o usługach cyfrowych:


Średni czas powiadomienia odpowiednich organów o otrzymaniu takich nakazów udzielenia informacji wyniósł 0 minut. Przesyłamy zautomatyzowaną odpowiedź potwierdzającą otrzymanie takich informacji. 

Średni czas wykonania nakazów udzielenia informacji wyniósł około 7 dni. Wskaźnik ten odzwierciedla okres od momentu otrzymania nakazu przez firmę Snap do momentu, w którym firma Snap uznała sprawę za całkowicie rozstrzygniętą, co w poszczególnych przypadkach może zależeć częściowo od szybkości odpowiedzi udzielanej przez organ danego państwa członkowskiego na wszelkie wnioski o wyjaśnienia od firmy Snap niezbędne do przetworzenia nakazu.

Należy pamiętać, że nie przedstawiamy podziału powyższych nakazów udzielenia informacji w podziale na rodzaj nielegalnych treści, ponieważ nie mamy dostępu do takich informacji.

3. Moderacja treści 


Wszystkie treści pojawiające się w dowolnym miejscu na Snapchacie muszą być zgodne z Wytycznymi dla społeczności i Regulaminem świadczenia usług. Niektóre treści muszą być również zgodne z dodatkowymi wytycznymi i zasadami. Na przykład treści przesłane w ramach rekomendacji algorytmicznych szerszej grupie odbiorców w naszych publicznych strefach nadawczych muszą spełniać dodatkowe, wyższe standardy określone w naszych Wytycznych dotyczących treści w zakresie kwalifikowalności rekomendacji, natomiast reklamy muszą być zgodne z naszą Polityką dotyczącą reklam.

Egzekwujemy te zasady za pomocą technologii i weryfikacji przez człowieka. Zapewniamy również użytkownikom Snapchata mechanizmy zgłaszania naruszeń, w tym treści niezgodnych z prawem, bezpośrednio w aplikacji lub za pośrednictwem naszej strony internetowej. Proaktywne mechanizmy wykrywania i zgłoszenia uruchamiają weryfikację, do której wykorzystuje się zestaw zautomatyzowanych narzędzi i moderatorów, aby następnie podjąć odpowiednie działania zgodnie z naszymi zasadami. 

Poniżej przedstawiamy dalsze informacje o moderacji treści w naszych strefach publicznych w pierwszej połowie 2024 roku.

a) Zgłoszenia przesłane zgodnie z art. 16 aktu o usługach cyfrowych 
(art. 15 ust. 1 lit. b))

Zgodnie z art. 16 aktu o usługach cyfrowych firma Snap wprowadziła mechanizmy umożliwiające użytkownikom i osobom niebędącym użytkownikami zgłaszanie firmie Snap przypadków występowania na Snapchacie konkretnych informacji, które są przez nich uznawane za treści niezgodne z prawem. Można to zrobić, zgłaszając określone treści lub konta bezpośrednio w aplikacji Snapchat lub na naszej stronie internetowej. 

W okresie sprawozdawczym (pierwsza połowa 2024 roku) otrzymaliśmy następujące zgłoszenia przesłane zgodnie z art. 16 aktu o usługach cyfrowych w UE:


Poniżej przedstawiamy zestawienie odzwierciedlające sposób przetwarzania tych zgłoszeń (w ramach procesu, w którym uwzględniono weryfikację przez człowieka lub wyłącznie w sposób zautomatyzowany): 

Przesyłając zgłoszenia w aplikacji lub za pośrednictwem naszej strony internetowej, osoby zgłaszające mogą wybrać konkretny powód zgłoszenia z menu opcji odzwierciedlających kategorie naruszeń wymienionych w naszych Wytycznych dla społeczności (np. mowa nienawiści, zażywanie lub sprzedaż narkotyków) Nasze Wytyczne dla społeczności wprowadzają zakaz treści i działań, które są niezgodne z prawem w UE, dlatego nasze powody zgłaszania w znacznej mierze odzwierciedlają konkretne kategorie treści niezgodnych z prawem w UE. W zakresie, w jakim osoba zgłaszająca w UE uważa, że treści lub konto, które są przedmiotem zgłoszenia, są niezgodne z prawem z powodów niewymienionych w naszym menu zgłoszeń, może zgłosić takie treści jako „inne treści niezgodne z prawem” i mieć możliwość wyjaśnienia, dlaczego uważa, że zgłaszane przez nią treści są niezgodne z prawem.

Jeśli po weryfikacji stwierdzimy, że zgłoszone treści lub konto naruszają nasze Wytyczne dla społeczności (również z powodu niezgodności z prawem), możemy: (i) usunąć treści stanowiące naruszenie prawa, (ii) ostrzec odpowiedniego właściciela konta i podjąć działania wobec konta i/lub (iii) zablokować odpowiednie konto, co zostało dokładniej wyjaśnione w naszym serwisie dotyczącym moderacji, egzekwowania i wyjaśnień na temat odwołań

W pierwszej połowie 2024 roku podjęliśmy następujące działania egzekucyjne po otrzymaniu zgłoszeń przesłanych zgodnie z art. 16 aktu o usługach cyfrowych w UE:

W pierwszej połowie 2024 roku wszystkie zgłoszenia dotyczące „innych nielegalnych treści”, które rozpatrzyliśmy, zostały ostatecznie wykonane na mocy Wytycznych dla społeczności, ponieważ nasze Wytyczne dla społeczności zabraniają takich treści lub działań. W ten sposób skategoryzowaliśmy te nakazy egzekucyjne w odpowiedniej kategorii naruszeń Wytycznych dla społeczności, zawartej w powyższej tabeli.

Oprócz powyższych działań egzekucyjnych możemy podejmować działania w sprawie treści, które nam zgłoszono zgodnie z innymi obowiązującymi zasadami i wytycznymi Snap: 

  • w odniesieniu do treści w naszych publicznych strefach nadawczych, jeśli stwierdzimy, że zgłoszone treści nie spełniają wyższych standardów naszych Wytycznych dotyczących kwalifikowalności do rekomendacji, możemy odrzucić takie treści do celów rekomendacji algorytmicznej (jeśli treści nie spełniają naszych kryteriów kwalifikowalności) lub możemy ograniczyć dystrybucję treści w celu wykluczenia wrażliwych odbiorców (jeśli treści spełniają nasze kryteria kwalifikowalności do rekomendacji, ale są wrażliwe lub sugestywne).

W pierwszej połowie 2024 roku podjęliśmy następujące działania w odniesieniu do treści w publicznych strefach nadawczych Snapchata, które zostały nam zgłoszone w UE, zgodnie z Wytycznymi dotyczącymi treści w zakresie kwalifikowalności rekomendacji:

  • Jeśli uznamy, że zgłoszona reklama narusza naszą Politykę dotyczącą reklam, po weryfikacji możemy ją usunąć. 


W pierwszej połowie 2024 roku podjęliśmy następujące działania w odniesieniu do reklam zgłoszonych nam w UE:


b) Moderacja treści podejmowana z własnej inicjatywy firmy Snap 
(art. 15 ust. 1 lit. c))


Oprócz rozpatrywania zgłoszeń przesłanych zgodnie z art. 16 aktu o usługach cyfrowych Snap z własnej inicjatywy moderuje treści w publicznych strefach nadawczych na Snapchacie (np. Spotlight, Discover). Poniżej przedstawiamy informacje o moderacji treści podejmowanej z własnej inicjatywy firmy Snap, w tym o wykorzystaniu zautomatyzowanych narzędzi, środkach podjętych w celu zapewnienia szkoleń i wsparcia osobom odpowiedzialnym za moderację treści oraz o liczbie i rodzajach ograniczeń nałożonych w wyniku proaktywnych działań w zakresie moderacji treści.


  • Wykorzystywanie zautomatyzowanych narzędzi do moderacji treści z inicjatywy własnej firmy Snap


Wykorzystujemy zautomatyzowane narzędzia do proaktywnego wykrywania naruszeń naszych warunków i zasad w odniesieniu do treści publicznych oraz, w niektórych przypadkach, podejmowania działań egzekucyjnych. Obejmują one narzędzia do wyszukiwania haseł (w tym PhotoDNA i Google CSAI Match), modele wykrywania obraźliwego języka (które wykrywają i odrzucają treści na podstawie zidentyfikowanej i regularnie aktualizowanej listy słów kluczowych i emotek), a także sztucznej inteligencji / technologii uczenia maszynowego. Nasze zautomatyzowane narzędzia są zaprojektowane do wykrywania przypadków naruszenia naszych Wytycznych dla społeczności (które między innymi zawierają zakaz treści niezgodnych z prawem) oraz, w stosownych przypadkach, naszych Wytycznych dotyczących treści w zakresie kwalifikowalności rekomendacji i Polityki dotyczącej reklam. 


W pierwszej połowie 2024 roku wszystkie nasze proaktywne działania w zakresie wykrywania były prowadzone przy użyciu zautomatyzowanych narzędzi. Gdy nasze zautomatyzowane narzędzia wykryją potencjalne naruszenie naszych zasad, automatycznie podejmują działania zgodne z naszymi zasadami lub tworzą zadanie do weryfikacji przez człowieka. Poniżej opisano liczbę i rodzaje ograniczeń nałożonych w wyniku tego procesu. 


  • Liczba i rodzaje ograniczeń nałożonych z własnej inicjatywy


W pierwszej połowie 2024 roku firma Snap podjęła następujące działania egzekucyjne w następstwie proaktywnego wykrycia, przy użyciu zautomatyzowanych narzędzi, przypadków naruszenia naszych Wytycznych dla społeczności (w tym naruszeń dotyczących treści niezgodnych z prawem i działań podejmowanych na mocy przepisów UE i państw członkowskich):

Ponadto w pierwszej połowie 2024 roku podjęliśmy następujące działania w odniesieniu do treści w naszych publicznych strefach nadawczych w następstwie wykrycia na Snapchacie przy użyciu narzędzi zautomatyzowanych przypadków naruszenia naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji:

* Jak stwierdzono w naszych Wytycznych dotyczących treści kwalifikujących się do rekomendacji, konta naruszające nasze Wytyczne w sposób ewidentny lub powtarzający się mogą zostać czasowo lub na stałe wykluczone z rekomendacji w naszych publicznych strefach nadawczych.  Działanie to podejmujemy w ramach proaktywnych działań moderacyjnych.

Ponadto w pierwszej połowie 2024 roku podjęliśmy następujące działania w następstwie proaktywnego wykrycia na Snapchacie przypadków naruszenia naszej Polityki dotyczącej reklam przy użyciu zautomatyzowanych narzędzi:

  • Środki podjęte w celu zapewnienia szkoleń i wsparcia osobom odpowiedzialnym za moderację treści


Nasze zespoły odpowiedzialne za moderację treści stosują nasze zasady moderacji treści, aby pomóc chronić naszą społeczność na Snapchacie. Członkowie zespołu wzięli udział w kilkutygodniowych szkoleniach, podczas których zapoznali się z obowiązującymi w firmie Snap zasadami, narzędziami i procedurami przekazywania treści na wyższy poziom. Członkowie naszych zespołów moderatorów regularnie uczestniczą w szkoleniach przypominających z zakresu dotyczących ich przepływów pracy, zwłaszcza sytuacji, kiedy mamy do czynienia z przypadkami granicznymi i zależnymi od kontekstu. Ponadto prowadzimy programy podnoszenia kwalifikacji, sesje poświadczające oraz quizy. Chcemy w ten sposób dopilnować, aby każdy moderator miał aktualną wiedzę i był zaznajomiony z aktualizacjami naszych zasad. Natomiast gdy pojawią się oparte na bieżących wydarzeniach trendy w treści, błyskawicznie rozpowszechniamy objaśnienia do polityki, aby nasze zespoły mogły reagować zgodnie z zasadami firmy Snap.


Zapewniamy naszym moderatorom znaczące wsparcie i zasoby, w tym wsparcie w zakresie dobrego samopoczucia w miejscu pracy i łatwego dostępu do usług związanych ze zdrowiem psychicznym. 

c) Skargi otrzymane w ramach wewnętrznych systemów rozpatrywania skarg w Snap (tj. odwołań) 
(art. 15 ust. 1 lit. d))


Użytkownicy, których konta zostały zablokowane przez nasze zespoły ds. bezpieczeństwa w związku z naruszeniem Wytycznych dla społeczności (w tym w związku z nielegalnymi treściami i działaniami), mogą przesłać odwołanie od decyzji o zablokowaniu konta. Użytkownicy mogą również odwołać się od określonych decyzji o moderacji treści.

W okresie sprawozdawczym (pierwsza połowa 2024 roku) firma Snap rozpatrzyła następujące odwołania (w tym odwołania od decyzji o zablokowaniu konta i moderacji na poziomie treści) złożone za pośrednictwem wewnętrznych systemów rozpatrywania skarg w UE:

d) Wykorzystywanie rozwiązań zautomatyzowanych na potrzeby moderacji treści 
(art. 15 ust. 1 lit. e) i art. 42 ust. 2 lit. c))

  • Opis jakościowy i cele


Jak wyjaśniono powyżej w sekcji 3 lit. b), stosujemy zautomatyzowane narzędzia do proaktywnego wykrywania naruszeń naszych warunków i zasad w odniesieniu do treści publicznych, a w niektórych przypadkach także do działań egzekucyjnych. Obejmują one narzędzia wykorzystujące hash-matching (w tym PhotoDNA i Google CSAI Match), modele wykrywania obraźliwego języka (które wykrywają i odrzucają treści na podstawie zidentyfikowanej i regularnie aktualizowanej listy słów kluczowych i emotek), a także sztucznej inteligencji / technologii uczenia maszynowego. Nasze zautomatyzowane narzędzia są zaprojektowane do wykrywania przypadków naruszenia naszych Wytycznych dla społeczności (które między innymi zawierają zakaz treści niezgodnych z prawem) oraz, w stosownych przypadkach, naszych Wytycznych dotyczących treści w zakresie kwalifikowalności rekomendacji i Polityki dotyczącej reklam. 

Gdy nasze zautomatyzowane narzędzia wykryją potencjalne naruszenie naszych zasad, automatycznie podejmują działania zgodne z naszymi zasadami lub tworzą zadanie do weryfikacji przez człowieka. 

  • Wskaźniki dokładności i możliwego poziomu błędów, w podziale na państwa członkowskie


Monitorujemy dokładność naszych zautomatyzowanych narzędzi do moderacji, wybierając losowe próbki zadań przetwarzanych przez te narzędzia w naszych publicznych strefach nadawczych i przesyłając je do ponownej weryfikacji przez nasze zespoły moderatorów. Wskaźnik dokładności to odsetek zadań z losowych próbek, które potwierdzone przez naszych moderatorów po ponownej weryfikacji. Wskaźnik błędów stanowi różnicę między wartością 100% a wartością wskaźnika dokładności obliczoną zgodnie z powyższym opisem. 

Na podstawie doboru próby w pierwszej połowie 2024 roku wskaźniki dokładności i możliwego poziomu błędów rozwiązań zautomatyzowanych we wszystkich kategoriach naruszeń wyniosły około 93%, a wskaźnik błędów wyniósł około 7%. 

Zasadniczo nie śledzimy danych dotyczących języka moderowanych przez nas treści na Snapchacie, w związku z czym nie możemy przedstawić zestawienia dokładności i wskaźników błędów w naszych zautomatyzowanych narzędziach do moderacji w odniesieniu do każdego języka urzędowego państw członkowskich.  Jako przybliżone informacje przedstawiamy poniżej zestawienie naszych wskaźników dokładności i błędów w przypadku treści automatycznie moderowanych w każdym państwie członkowskim. 

  • Zabezpieczenia


Zdajemy sobie sprawę z potencjalnego wpływu zautomatyzowanych narzędzi moderacji na prawa podstawowe i stosujemy zabezpieczenia w celu minimalizacji tego wpływu.

Nasze zautomatyzowane narzędzia do moderacji treści są testowane przed wdrożeniem na Snapchacie. Modele są testowane pod kątem wydajności w trybie offline i wdrażane w ramach testów A/B, aby zapewnić ich prawidłowe działanie przed pełnym wdrożeniem do produkcji. Przeprowadzamy wstępne przeglądy jakości (QA), przeglądy uruchomienia i bieżące kontrole dokładności podczas wdrożeń częściowych (etapowych).

Po uruchomieniu naszych zautomatyzowanych narzędzi na bieżąco oceniamy ich wydajność i dokładność oraz wprowadzamy niezbędne zmiany. Proces ten obejmuje ponowną weryfikację próbek zautomatyzowanych zadań przez naszych moderatorów w celu identyfikacji modeli, które wymagają korekt, i poprawy ich dokładności. Monitorujemy również występowanie określonych szkód na Snapchacie za pomocą losowego doboru codziennych próbek Stories udostępnianych na profilach publiczne i wykorzystujemy te informacje do identyfikacji obszarów wymagających dalszych ulepszeń. 

Nasze zasady i systemy opierają się na spójnych i uczciwych działaniach egzekucyjnych, przeprowadzanych również przez nasze zautomatyzowane narzędzia. Zapewniamy naszym użytkownikom okazję do skutecznego odwołania się od wyników egzekucji za pośrednictwem procedur zgłoszeń i odwołań. Ich celem jest zabezpieczenie interesów naszej społeczności, przy jednoczesnej ochronie praw pojedynczych użytkowników.

Staramy się stale ulepszać nasze zautomatyzowane narzędzia do moderacji treści, aby poprawić ich dokładność i wspomagać konsekwentne i uczciwe egzekwowanie naszych zasad.

e) Spory skierowane do organów pozasądowego rozstrzygania sporów na podstawie art. 21
(art. 24 ust. 1 lit. a))

W okresie sprawozdawczym (pierwsza połowa 2024 roku) liczba sporów skierowanych do organów pozasądowego rozstrzygania sporów posiadających formalną certyfikację zgodnie z art. 21 aktu o usługach cyfrowych wyniosła zero (0). Nie jesteśmy zatem w stanie przedstawić zestawienia wyników, mediany czasu potrzebnego na przeprowadzenie postępowania ani udziału sporów, w których firma Snap wdrożyła decyzje organu pozasądowego rozstrzygania sporów.

Należy pamiętać, że w pierwszej połowie 2024 roku otrzymaliśmy dwa (2) zgłoszenia sporów skierowanych do organu ubiegającego się o certyfikację jako organ pozasądowego rozstrzygania sporów na mocy art. 21 aktu o usługach cyfrowych. Nie uwzględniliśmy tych sporów w powyższych danych, ponieważ organ, który przesłał zgłoszenia sporów, nie był w stanie zweryfikować swojej certyfikacji na nasz wniosek.

f) Zawieszenie świadczenia usług zastosowane zgodnie z art. 23 
(art. 24 ust. 1 lit. b))
  • Zawieszenie świadczenia usług zgodnie z art. 23 ust. 1: zawieszenie kont, które często dostarczają treści o charakterze wyraźnie niezgodnym z prawem 

Jak wyjaśniono w naszym poradniku dotyczącym moderacji, egzekwowania i odwołań, konta, które według naszych ustaleń są wykorzystywane w sposób naruszający przede wszystkim nasze Wytyczne dla społeczności (zawierające między innymi postanowienie o treściach, które są wyraźnie niezgodne z prawem), i konta, które prowadzą do poważnych szkód, są natychmiast wyłączane. W przypadku innych naruszeń naszych Wytycznych dla społeczności firma Snap stosuje zasadniczo trzyczęściową procedurę egzekwowania zasad:

  • Krok pierwszy: usunięcie treści naruszających zasady.

  • Krok drugi: użytkownik otrzymuje powiadomienie o naruszeniu przez niego naszych Wytycznych dla społeczności, usunięciu jego treści oraz ostrzeżenie, że powtórne naruszenia skutkować będą dodatkowymi działaniami, w tym wyłączeniem konta.

  • Krok trzeci: nasz zespół odnotowuje przewinienie dla konta danego użytkownika.

Informacje na temat liczby przewinień (tj. ostrzeżeń) i blokad nałożonych na konta w UE w pierwszej połowie 2024 roku w odniesieniu do treści lub działań w strefach publicznych na Snapchacie można znaleźć w sekcjach 3 lit. a) i b) powyżej.

  • Zawieszenia przeprowadzone zgodnie z art. 23 ust. 2: zawieszenia w wyniku rozpatrzenia zgłoszeń i skarg od osób fizycznych, podmiotów i osób, które często przesyłają zgłoszenia i skargi o wyraźnie bezpodstawnym charakterze

Stosując naszą wewnętrzną definicję „wyraźnie bezpodstawnego charakteru” zgłoszeń i skarg oraz nasze wewnętrzne progi tego, co uważamy za częste przesyłanie takich zgłoszeń i skarg, ustaliliśmy, że liczba zawieszeń w wyniku rozpatrzenia zgłoszeń i skarg przesłanych w pierwszym półroczu 2024 roku na podstawie art. 23 ust. 2 aktu o usługach cyfrowych wyniosła:

4. Informacje o naszych zespołach odpowiedzialnych za moderację treści 
a) Pracownicy zajmujący się moderacją treści, w tym zapewnieniem zgodności z art. 16, 20 i 22 aktu o usługach cyfrowych, w podziale na języki urzędowe państw członkowskich
(art. 42 ust. 2 lit. a))


Nasze zespoły moderatorów działają na obszarze całego świata, dzięki czemu możemy zapewnić bezpieczeństwo użytkownikom Snapchata przez całą dobę i 7 dni w tygodniu. Poniżej dostępne jest zestawienie moderatorów według specjalności językowej (należy pamiętać, że niektórzy moderatorzy specjalizują się w kilku językach) – stan na 30 czerwca 2024 roku:

W powyższej tabeli uwzględniono wszystkich pracowników zajmujących się moderacją treści, którzy od 30 czerwca 2024 r. obsługują języki urzędowe państw członkowskich UE. Gdy potrzebujemy dodatkowego wsparcia językowego, korzystamy z usług tłumaczeniowych.

b) Kwalifikacje i znajomość języków wśród moderatorów treści; zapewnione szkolenia i wsparcie
(art. 42 ust. 2 lit. b))


Moderatorów rekrutujemy za pomocą standardowego opisu oferty pracy, zawierającego wymóg językowy (w zależności od potrzeby). Wymóg językowy określa, że kandydat powinien płynnie władać językiem w piśmie i w mowie, a także mieć przynajmniej rok doświadczenia zawodowego na stanowiskach dla początkujących. Ponadto jeśli kandydaci chcą być brani pod uwagę, muszą spełnić wymogi związane z wykształceniem. Muszą również wykazać się zrozumieniem aktualnych wydarzeń w kraju lub regionie, którego treści będą moderować. 

Informacje na temat szkoleń i wsparcia zapewnianego przez Snap moderatorom treści są wymagane oddzielnie na mocy artykułu 15 ust. 1 lit. c) aktu o usługach cyfrowych i tym samym zostały ujęte w sekcji 3 lit. b), w ostatniej podsekcji: „Środki podjęte w celu zapewnienia szkoleń i wsparcia osobom odpowiedzialnym za moderację treści

Raport na temat skanowania pod kątem seksualnego wykorzystywania i niegodziwego traktowania dzieci (CSEA)


Tło

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.


Wykorzystujemy interfejs PhotoDNA wykorzystujący hash-matching oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.


Raport

Poniższe dane opierają się na wynikach proaktywnego skanowania za pomocą PhotoDNA i/lub CSAI Match mediów przesłanych przez rolkę aparatu użytkownika do serwisu Snapchat.

Zapobieganie wykorzystywaniu seksualnemu dzieci jest sprawą najwyższej wagi. Snap przeznacza na to znaczne zasoby i stosuje politykę zerowej tolerancji dla takiego zachowania. Rozpatrywanie odwołania dotyczącego wykorzystywania seksualnego dzieci wymaga specjalnego szkolenia, a ze względu na drastyczny charakter tego typu treści odwołania te są rozpatrywane przez wąski zespół. Jesienią 2023 Snap wdrożył zmiany w polityce, które wpłynęły na spójność egzekwowania pewnych zasad dotyczących wykorzystywania seksualnego dzieci. Rozwiązaliśmy ten problem poprzez ponowne przeszkolenie naszych pracowników i rygorystyczną kontrolę jakości. Spodziewamy się, że następny raport przejrzystości wykaże postępy w zakresie przyspieszenia czasu rozpatrywania odwołań dotyczących wykorzystywania seksualnego dzieci i zwiększenia precyzji wstępnego egzekwowania zasad związanych z tym tematem.  

Zabezpieczenia dotyczące moderowania treści

Zabezpieczenia stosowane do skanowania mediów CSEA są określone w powyższej sekcji „Zabezpieczenia dotyczące moderowania treści” w Raporcie DSA.


Raport przejrzystości dotyczący treści terrorystycznych w Internecie w Unii Europejskiej

Publikacja: 17 czerwca 2024 r.

Ostatnia aktualizacja: 17 czerwca 2024 r.

Niniejszy raport przejrzystości jest publikowany zgodnie z art. 7 ust. 2 i 3 rozporządzenia Parlamentu Europejskiego i Rady 2021/784 w sprawie przeciwdziałania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym („rozporządzenie”). Obejmuje okres sprawozdawczy od 1 stycznia do 31 grudnia 2023 r.


Informacje ogólne
  • Artykuł 7 ust. 3 lit. a): informacje na temat środków wprowadzonych przez dostawcę usług hostingowych w związku z identyfikacją i usunięciem treści o charakterze terrorystycznym lub uniemożliwieniem dostępu do nich

  • Artykuł 7 ust. 3 lit. b): informacje na temat środków wprowadzonych przez dostawcę usług hostingowych w celu przeciwdziałania ponownemu pojawianiu się w Internecie materiałów, które wcześniej zostały usunięte lub do których dostęp został uniemożliwiony, ponieważ zostały one uznane za treści o charakterze terrorystycznym, w szczególności w przypadkach, w których zastosowano zautomatyzowane narzędzia


Terrorystom, organizacjom terrorystycznym i brutalnym ekstremistom zabrania się korzystania ze Snapchata. Treści promujące, gloryfikujące lub prezentujące terroryzm lub inne akty przemocy i czyny przestępcze są zabronione na mocy naszych Wytycznych dla społeczności. Użytkownicy mogą zgłaszać treści, które naruszają nasze Wytyczne dla społeczności, za pośrednictwem naszego menu zgłaszania w aplikacji i naszej strony wsparcia. Wykorzystujemy również proaktywne wykrywanie do identyfikowania treści stanowiących naruszenie prawa w sekcjach publicznych, takich jak Polecane i Odkrywaj.


Niezależnie od tego, w jaki sposób możemy dowiedzieć się o treściach stanowiących naruszenie prawa, nasze zespoły ds. zaufania i bezpieczeństwa dokonują szybkiego przeglądu wykrytych treści i wdrażają decyzje egzekucyjne, wykorzystując w tym celu połączenie moderacji automatycznej i przeprowadzanej przez człowieka. Działania egzekucyjne mogą obejmować usunięcie treści, ostrzeżenie lub zablokowanie konta naruszającego prawo oraz, w uzasadnionych przypadkach, zgłoszenie konta organom ścigania. Aby zapobiec ponownemu pojawieniu się na Snapchacie treści o charakterze terrorystycznym lub innych brutalnych treści ekstremistycznych, oprócz współpracy z organami ścigania podejmujemy kroki mające na celu zablokowanie urządzenia powiązanego z kontem naruszającym prawo i uniemożliwienie użytkownikowi utworzenia innego konta na Snapchacie. 


Dodatkowe informacje na temat naszych środków służących do identyfikacji i usuwania treści o charakterze terrorystycznym można znaleźć w naszym poradniku dotyczącym treści związanych z mową nienawiści, terroryzmem i brutalnym ekstremizmem oraz naszym poradniku dotyczącym moderacji, egzekwowania i odwołań



Zgłoszenia i działania egzekucyjne 
  • Artykuł 7 ust. 3 lit. c): liczba treści o charakterze terrorystycznym, które zostały usunięte lub do których uniemożliwiono dostęp w wyniku nakazów usunięcia lub środków szczególnych oraz liczba nakazów usunięcia, w przypadku których treści nie zostały usunięte ani dostęp do nich nie został uniemożliwiony zgodnie z art. 3 ust. 7 i 8, wraz z uzasadnieniem


W okresie sprawozdawczym firma Snap nie otrzymała żadnych nakazów usunięcia ani nie była zobowiązana do wdrożenia żadnych środków szczególnych zgodnie z art. 5 rozporządzenia. W związku z tym nie byliśmy zobowiązani do podjęcia działań egzekucyjnych na mocy rozporządzenia.


W poniższej tabeli opisano działania egzekucyjne podjęte na podstawie zgłoszeń użytkowników i proaktywnego wykrywania treści i kont, zarówno w UE, jak i w innych częściach świata, które naruszają nasze Wytyczne dla społeczności dotyczące terroryzmu i brutalnych treści ekstremistycznych.

Odwołania od nakazu egzekucyjnego
  • Artykuł 7 ust. 3 lit. d): liczba i wynik skarg rozpatrzonych przez dostawcę usług hostingowych zgodnie z art. 10

  • Artykuł 7 ust. 3 lit. g): liczba przypadków, w których dostawca usług hostingowych przywrócił treści lub dostęp do nich po złożeniu skargi przez dostawcę treści


Ponieważ w okresie sprawozdawczym nie podjęliśmy żadnych działań egzekucyjnych wymaganych na mocy rozporządzenia zgodnie z powyższym opisem, nie rozpatrzyliśmy żadnych skarg na mocy art. 10 rozporządzenia i nie dokonaliśmy powiązanych z tym czynności przywrócenia.


Poniższa tabela zawiera informacje dotyczące odwołań i czynności przywrócenia, zarówno w UE, jak i w innych częściach świata, w odniesieniu do treści terrorystycznych i brutalnych treści ekstremistycznych podlegających nakazowi egzekucyjnemu na mocy Wytycznych dla społeczności.

Postępowania sądowe i odwołania
  • Artykuł 7 ust. 3 lit. e): liczba i wynik administracyjnego lub sądowego postępowania odwoławczego wszczętego przez dostawcę usług hostingowych

  • Artykuł 7 ust. 3 lit. f): liczba przypadków, w których dostawca usług hostingowych był zobowiązany do przywrócenia treści lub dostępu do nich w wyniku administracyjnego lub sądowego postępowania odwoławczego


Ponieważ w okresie sprawozdawczym nie podjęliśmy żadnych działań egzekucyjnych wymaganych na mocy rozporządzenia, w związku z powyższym nie prowadziliśmy połączonych administracyjnych lub sądowych postępowań odwoławczych i nie byliśmy zobowiązani do przywrócenia treści w wyniku takiego postępowania.

Ocena ryzyka związanego z Aktem o usługach cyfrowych

Niniejszy raport został sporządzony w celu spełnienia zobowiązań Snap wynikających z art. 34 i 35 rozporządzenia (UE) nr 2022/2065 i zawiera wyniki oceny ryzyka systemowego wynikającego z projektu platform internetowych Snapchata, ich działania i użytkowania oraz przedstawia metodologię stosowaną do oceny tego ryzyka, a także środki zastosowane w celu jego zmniejszenia.


Raport dotyczący oceny ryzyka związanego z Aktem o usługach cyfrowych oraz środków zmniejszających ryzyko | Snapchat | Sierpień 2023 r. (PDF)


Audyt z zakresu Aktu o usługach cyfrowych i wdrożenie wyników audytu

Raporty te zostały sporządzone w celu spełnienia zobowiązań Snap wynikających z art. 37 rozporządzenia (UE) nr 2022/2065 i zawierają: (i) wyniki niezależnego audytu zgodności firmy Snap z obowiązkami określonymi w rozdziale III rozporządzenia (UE) nr 2022/2065 oraz (ii) środki podjęte w celu wdrożenia zaleceń operacyjnych uzyskanych w ramach tego niezależnego audytu.

Raport dotyczący niezależnego audytu w zakresie Aktu o usługach cyfrowych | Snapchat | Sierpień 2024 r. (PDF)

Raport z wdrożenia wyników audytu w zakresie Aktu o usługach cyfrowych | Snapchat | Wrzesień 2024 r. (PDF)



Kodeks postępowania dotyczący usług platformy udostępniania wideo (VSP) w UE

Snap jest dostawcą „usługi platformy udostępniania wideo” („VSP”) zgodnie z art. 1 ust. 1 lit. aa dyrektywy o audiowizualnych usługach medialnych (AVMSD). Niniejszy Kodeks postępowania („Kodeks”) został przygotowany w celu opisania, w jaki sposób Snap przestrzega swoich zobowiązań jako VSP, które wynikają z holenderskiej ustawy o mediach („DMA”) oraz dyrektywy (UE) 2010/13 ze zmianami wprowadzonymi przez dyrektywę (UE) 2018/1808 („dyrektywa o audiowizualnych usługach medialnych” lub „AVMSD”). Kodeks ma zastosowanie w Unii Europejskiej oraz w Europejskim Obszarze Gospodarczym.

Kodeks postępowania dotyczący VSP w UE | Snapchat | Grudzień 2024 (PDF)