Unia Europejska
1 lipca 2023 r. – 31 grudnia 2023 r.

Wydano:

25 kwietnia, 2024 r.

Zaktualizowano:

25 kwietnia, 2024 r.

Zapraszamy na naszą stronę o Europejskiej Transparentności, na której publikujemy wszystkie informacje dla obszaru Unii Europejskiej (UE), wymagane przez zapisy europejskiej ustawy o usługach cyfrowych (DSA), dyrektywy o audiowizualnych usługach medialnych (AVMSD) i holenderskiej ustawie medialnej (DMA).   Należy pamiętać, że najbardziej aktualne wersje tych raportów przejrzystości można znaleźć w wersji anglojęzycznej.

Przedstawiciel prawny 

Firma Snap Group Limited wyznaczyła firmę Snap B.V. jako swojego przedstawiciela prawnego na potrzeby DSA. Z przedstawicielem można skontaktować się pod adresem email dsa-enquiries [at] snapchat.com w sprawie DSA, pod adresem email vsp-enquiries [at] snapchat.com w sprawie AVMSD i DMA, za pośrednictwem naszej strony Wsparcia [tutaj] lub pod adresem:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

Jeśli reprezentują Państwo organy ścigania, proszę postępować zgodnie z instrukcjami opisanymi w tym dokumencie.

Organy regulacyjne

W przypadku DSA organem regulacyjnym jest Komisja Europejska oraz holenderski Urząd ds. Konsumentów i Rynków (ACM).  W kwestii AVMSD i DMA podlegamy jurysdykcji holenderskiego Urzędu ds. Mediów (CvdM).

Raport przejrzystości DSA

Zgodnie z art. 15, 24 i 42 ustawy DSA firma Snap ma obowiązek publikowania raportów zawierających określone dane dotyczące moderowania przez Snap treści usług Snapchat, które są uznawane za „platformy online”, tj. Polecane, Dla Ciebie, profile publiczne, mapy, Nakładki i reklamy. Taki raport musi być publikowany co 6 miesięcy od 25 października 2023 r.

Firma Snap publikuje raporty przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snap na rzecz bezpieczeństwa oraz charakter, a także ilość treści zgłaszanych na naszej platformie. Nasz najnowszy raport za drugą połowę 2023 r. (od 1 lipca do 31 grudnia) można znaleźć tutaj. Wskaźniki dotyczące ustawy o usługach cyfrowych można znaleźć na tej stronie.

Średnia liczba aktywnych odbiorców w skali miesiąca 
(Artykuły DSA 24.2 i 42.3)

Według stanu na 31 grudnia 2023 r. średnia liczba aktywnych odbiorców naszej aplikacji Snapchat w skali miesiąca w UE wynosi 90,9 mln użytkowników. Oznacza to, że w okresie ostatnich sześciu miesięcy, średnio 90,9 mln zarejestrowanych użytkowników z UE otworzyło aplikację Snapchat co najmniej raz w ciągu danego miesiąca.

Jeśli chodzi o podział na państwa członkowskie, liczby te rozkładają się następująco:

Wartości te zostały obliczone na potrzeby zgodności z obowiązującymi zasadami DSA i należy je wykorzystywać wyłącznie do celów związanych z zasadami DSA. Z czasem zmieniliśmy sposób obliczania, w tym w odpowiedzi na zmieniającą się politykę wewnętrzną, wytyczne organów regulacyjnych i technologię, a dane liczbowe nie są przeznaczone do porównywania między okresami. Wartości mogą również różnić się od obliczeń wykorzystywanych w przypadku innych danych dotyczących aktywności użytkowników, które publikujemy w innych celach.


Wnioski organów państw członkowskich
(Art. 15.1 lit. a)

Żądania usunięcia 

W tym okresie otrzymaliśmy 0 żądań usunięcia od państw członkowskich UE zgodnie z art. 9 DSA. 

Żądania informacji 

W tym okresie otrzymaliśmy następujące wnioski o udzielenie informacji od państw członkowskich UE zgodnie z art. 10 DSA:

Średni czas oczekiwania na poinformowanie władz o otrzymaniu wniosku o udzielenie informacji wynosi 0 minut – dostarczamy automatyczną odpowiedź potwierdzającą otrzymanie wniosku. Średni czas oczekiwania na rozpatrzenie wniosku o udzielenie informacji wynosi około 10 dni. Wskaźnik ten odzwierciedla okres od momentu otrzymania przez Snap informacji zwrotnej do momentu, w którym Snap uzna, że wniosek został w pełni rozwiązany. W niektórych przypadkach długość tego procesu zależy częściowo od szybkości, z jaką organy ścigania odpowiadają na wszelkie prośby o wyjaśnienia ze strony Snap niezbędne do przetworzenia ich wniosku.

Moderacja treści 


Wszystkie treści na Snapchacie muszą być zgodne z naszymi wytycznymi dla społeczności oraz regulaminem, a także dodatkowymi warunkami, wytycznymi i objaśnieniami. Mechanizmy aktywnego wykrywania oraz zgłaszania nielegalnych lub stanowiących naruszenie treści i kont prowadzą do weryfikacji, w ramach której nasze systemy przetwarzają zgłoszenie, gromadzą odpowiednie metadane oraz przesyłają związaną ze zgłoszeniem treść do naszego zespołu moderatorów za pośrednictwem uporządkowanego interfejsu użytkownika, ułatwiającego skuteczny i wydajny proces weryfikacji. Po stwierdzeniu przez zespoły moderatorów w sposób zautomatyzowany lub w ramach weryfikacji człowieka, że użytkownik naruszył nasze warunki, możemy usunąć obraźliwe treści lub konto, zablokować odpowiednie konto lub ograniczyć jego widoczność i powiadomić organy ścigania zgodnie z opisem w przewodniku po zasadach Snapchat dotyczących moderowania, egzekwowania zasad i odwołania.  Użytkownicy, których konta zostały zablokowane przez nasz zespół ds. bezpieczeństwa za naruszenie wytycznych dla społeczności, mogą przesłać odwołanie od blokady konta. Użytkownicy mogą odwołać się od określonych środków egzekwowania zasad dotyczących treści.

Powiadomienia dotyczące treści i kont (artykuł DSA 15.1(b))

Firma Snap wprowadziła mechanizmy umożliwiające użytkownikom i osobom niebędącym użytkownikami powiadamianie Snap o treściach i kontach naruszających nasze Wytyczne dla społeczności i Regulamin na platformie, w tym tych, które uważają za nielegalne zgodnie z art. 16 DSA.  Te mechanizmy zgłaszania są dostępne w samej aplikacji (tj. bezpośrednio z treści) oraz na naszej stronie internetowej.

W danym okresie otrzymaliśmy następujące powiadomienia dotyczące treści i kont w UE:

W drugiej połowie 2023 r. obsłużyliśmy 664 896 powiadomień wyłącznie za pomocą środków automatycznych. Wszystkie z nich dotyczyły naszych Wytycznych dla społeczności, ponieważ zawierają one zasady dotyczące nielegalnych treści. 

Oprócz treści i kont generowanych przez użytkowników moderujemy reklamy, jeśli naruszają one zasady naszej platformy. Poniżej znajduje się łączna liczba reklam, które zostały zgłoszone i usunięte w UE. 

Powiadomienia Zaufanych Oznaczających (artykuł 15.1b))

W okresie objętym najnowszym Raportem przejrzystości (druga połowa 2023 r.) nie było formalnie wyznaczonych Zaufanych Oznaczających w ramach DSA. W rezultacie liczba złożonych przez nich powiadomień w tamtym okresie wyniosła zero (0).

Proaktywne moderowanie treści (art. 15.1(c))

W danym okresie firma Snap egzekwowała następujące treści i konta w UE po zaangażowaniu moderacji treści z własnej inicjatywy:

Wszystkie działania moderacyjne podejmowane przez Snap z własnej inicjatywy wykorzystywały ludzi lub automatyzację. W obszarze treści publicznych, przed zakwalifikowaniem ich do udostępnienia odbiorcom, są one zazwyczaj poddawane automatycznemu moderowaniu oraz weryfikacji przez człowieka. Zautomatyzowane narzędzia w tym zakresie obejmują:

  • Proaktywne wykrywanie nielegalnych i naruszających zasady treści z wykorzystaniem uczenia maszynowego;

  • Narzędzia dopasowania hasztagów (takie jak PhotoDNA i Google CSAI Match);

  • Narzędzie wykrywania obraźliwego języka w celu odrzucania zawierającej go treści w oparciu o regularnie aktualizowaną listę zidentyfikowanych słów kluczowych o charakterze obraźliwym, w tym emoji


Odwołania (art. 15 ust. 1 lit. d)

W danym okresie firma Snap rozpatrzyła następujące odwołania dotyczące treści i kont w UE za pośrednictwem swoich wewnętrznych systemów rozpatrywania skarg:


*Zapobieganie wykorzystywaniu seksualnemu dzieci jest najwyższym priorytetem. Snap przeznacza na to znaczne zasoby i stosuje politykę zerowej tolerancji dla takiego zachowania. Rozpatrywanie odwołania dotyczącego wykorzystywania seksualnego dzieci wymaga specjalnego szkolenia, a ze względu na drastyczny charakter tego typu treści odwołania te są rozpatrywane przez wąski zespół przedstawicieli. Jesienią 2023 Snap wdrożył zmiany w polityce, które wpłynęły na spójność egzekwowania pewnych zasad dotyczących wykorzystywania seksualnego dzieci. Rozwiązaliśmy ten problem poprzez przeszkolenie przedstawicieli i rygorystyczną kontrolę jakości. Spodziewamy się, że następny raport przejrzystości wykaże postępy w zakresie przyspieszenia czasu rozpatrywania odwołań dotyczących wykorzystywania seksualnego dzieci i zwiększenia precyzji wstępnego egzekwowania zasad związanych z tym tematem.

Automatyczne metody moderowania treści (artykuł 15.1(d))

W obszarze treści publicznych, przed zakwalifikowaniem ich do udostępnienia odbiorcom, są one zazwyczaj poddawane automatycznemu moderowaniu oraz weryfikacji przez człowieka. Zautomatyzowane narzędzia w tym zakresie obejmują:

  • Proaktywne wykrywanie nielegalnych i naruszających zasady treści z wykorzystaniem uczenia maszynowego;

  • Narzędzia dopasowania hasztagów (takie jak PhotoDNA i CSAI Match firmy Google);

  • Narzędzie wykrywania obraźliwego języka w celu odrzucania zawierającej go treści w oparciu o regularnie aktualizowaną listę zidentyfikowanych słów kluczowych o charakterze obraźliwym, w tym emoji.


Dokładność technologii automatycznego moderowania w zakresie wszelkich naruszeń wynosiła około 96,61%, a odsetek błędów wyniósł około 3,39%.


Zabezpieczenia dotyczące moderowania treści (artykuł 15.1(d))

Jesteśmy świadomi zagrożeń związanych z moderowaniem treści. Są wśród nich zagrożenie wolności wyrażania siebie i zgromadzeń, które może wynikać z uprzedzeń moderujących maszyn lub zajmujących się moderacją ludzi, a także naruszających zasady zgłoszeń, w tym od władz, politycznych okręgów wyborczych lub dobrze zorganizowanych osób. Ogólnie rzecz biorąc, Snapchat nie jest miejscem dla treści politycznych lub aktywistycznych, szczególnie w naszych przestrzeniach publicznych. 


Niemniej, aby zabezpieczyć się przed takimi zagrożeniami, firma Snap prowadzi testy i szkolenia. Ponadto stosujemy sztywne i konsekwentne procedury radzenia sobie ze zgłoszeniami nielegalnych lub naruszających zasady treści, w tym procedury obejmujące udział organów ścigania i organów rządowych. Stale oceniamy i rozwijamy nasze algorytmy moderowania treści. O ile trudno jest wykryć potencjalne zagrożenia dla wolności ekspresji, nic nam nie wiadomo o żadnych istotnych problemach, a jeśli się pojawią, nasi użytkownicy są wyposażeni w narzędzia zgłaszania błędów. 


Nasze zasady i systemy opierają się na spójnym i uczciwym egzekwowaniu. Oprócz tego, jak opisano powyżej, zapewniamy Snapchatterom okazję do skutecznego odwołania się od wyników egzekucji za pośrednictwem procedur powiadomień i odwołań. Ich celem jest zabezpieczenie interesów naszej społeczności, przy jednoczesnej ochronie praw pojedynczych Snapchatterów.

Stale dążymy do usprawnienia naszych zasad i procedur egzekucyjnych. Poczyniliśmy też ogromne postępy w walce z potencjalnie szkodliwymi i nielegalnymi treściami oraz działaniami na Snapchacie. Znajduje to odzwierciedlenie w tendencji wzrostowej danych o zgłaszaniu i egzekwowaniu z naszego najnowszego raportu przejrzystości, a także w spadku wskaźników występowania naruszeń w obszarze całego Snapchata. 


Pozasądowe rozstrzyganie sporów (artykuł 24.1(a))

W okresie objętym najnowszym raportem przejrzystości (druga połowa 2023 r.) nie było formalnie wyznaczonych organów pozasądowego rozstrzygania sporów w ramach DSA. W rezultacie liczba sporów zgłoszonych do takich organów wynosiła zero (0) w tym okresie i nie jesteśmy w stanie przedstawić wyników i średnich czasów rozstrzygania ani odsetka sporów, w przypadku których wdrożyliśmy decyzje danego organu.



Zawieszenia kont (artykuł 24.1(a))

W drugiej połowie 2023 r. nie zawiesiliśmy żadnych kont zgodnie z artykułem 23. Zespół ds. zaufania i bezpieczeństwa ma procedury mające na celu ograniczenie możliwości przesyłania w oczywisty sposób bezpodstawnych powiadomień lub skarg z kont użytkowników. Procedury te obejmują ograniczanie możliwości tworzenia powielonych zgłoszeń i stosowanie filtrów e-maili, aby uniemożliwić użytkownikom, którzy często przesyłają bezpodstawne zgłoszenia, ich dalsze przesyłanie. Firma Snap podejmuje odpowiednie działania egzekucyjne przeciwko kontom (co zostało objaśnione w naszym Przewodniku po zasadach Snapchata odnośnie moderowania, egzekwowania i odwołań, natomiast informacje o poziomie egzekwowania przepisów przez firmę Snap, znajdują się w naszym raporcie przejrzystości (druga połowa 2023 r.). Takie środki będą w dalszym ciągu weryfikowane i doskonalone.


Zasoby, wiedza i wsparcie moderatorów (artykuł 42.2)

Nasz zespół moderatorów działa na obszarze całego świata, dzięki czemu możemy zapewnić bezpieczeństwo użytkownikom Snapchata przez całą dobę i 7 dni w tygodniu. Poniżej dostępne jest zestawienie moderatorów według specjalności językowej (należy pamiętać, że niektórzy moderatorzy specjalizują się w kilku językach) - stan na 31 grudnia 2023 roku:

Powyższa tabela obejmuje wszystkich moderatorów, którzy obsługują języki państw członkowskich UE na dzień 31 grudnia 2023 r. Gdy potrzebujemy dodatkowego wsparcia językowego, korzystamy z usług tłumaczeniowych.

Moderatorów rekrutujemy za pomocą standardowego opisu oferty pracy, zawierającego wymóg językowy (w zależności od potrzeby). Wymóg językowy określa, że kandydat powinien płynnie władać językiem w piśmie i w mowie, a także mieć przynajmniej rok doświadczenia zawodowego na stanowiskach dla początkujących. Ponadto jeśli kandydaci chcą być brani pod uwagę, muszą spełnić wymogi związane z wykształceniem. Muszą również wykazać się zrozumieniem aktualnych wydarzeń w kraju lub regionie, którego treści będą moderować.

Nasz zespół moderatorów stosuje się do naszych zasad i środków egzekwowania, aby pomóc w ochronie społeczności Snapchat. Gwarantujemy kilkutygodniowe szkolenie, podczas którego nowi członkowie zespołu zapoznają się z obowiązującymi w firmie Snap zasadami, narzędziami i procedurami przekazywania treści na wyższy poziom. Po ukończeniu szkolenia każdy moderator musi zdać egzamin poświadczający. Dopiero wtedy zostaną oni dopuszczeni od przeglądania treści. Nasz zespół moderatorów regularnie uczestniczy w istotnych dla ich organizacji pracy szkoleniach utrwalających, szczególnie wtedy, kiedy natrafimy na sprawy, będące na granicy ustaleń naszej polityki lub zależne od kontekstu. Ponadto prowadzimy programy podnoszenia kwalifikacji, sesje poświadczające oraz quizy. Chcemy w ten sposób dopilnować, aby każdy moderator miał aktualną wiedzę i był na bieżąco z aktualizacjami naszych zasad. Natomiast gdy pojawią się oparte na bieżących wydarzeniach trendy w treści, błyskawicznie rozpowszechniamy objaśnienia polityki, aby nasze zespoły mogły reagować zgodnie z zasadami firmy Snap.

Zapewniamy naszemu zespołowi moderatorów treści, czyli tzw. pierwszej linii cyfrowej Snapa, istotne wsparcie oraz zasoby. Wśród nich są wspieranie kondycji fizycznej w trakcie pracy oraz łatwy dostęp do opieki zdrowia psychicznego. 

Raport na temat skanowania pod kątem seksualnego wykorzystywania i niegodziwego traktowania dzieci (CSEA)


Tło

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.


Wykorzystujemy interfejs PhotoDNA robust hash-matching oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.


Raport

Poniższe dane opierają się na wynikach proaktywnego skanowania za pomocą PhotoDNA i/lub CSAI Match mediów przesłanych przez rolkę aparatu użytkownika do serwisu Snapchat.

Zapobieganie wykorzystywaniu seksualnemu dzieci jest najwyższym priorytetem. Snap przeznacza na to znaczne zasoby i stosuje politykę zerowej tolerancji dla takiego zachowania. Rozpatrywanie odwołania dotyczącego wykorzystywania seksualnego dzieci wymaga specjalnego szkolenia, a ze względu na drastyczny charakter tego typu treści odwołania te są rozpatrywane przez wąski zespół przedstawicieli. Jesienią 2023 Snap wdrożył zmiany w polityce, które wpłynęły na spójność egzekwowania pewnych zasad dotyczących wykorzystywania seksualnego dzieci. Rozwiązaliśmy ten problem poprzez przeszkolenie przedstawicieli i rygorystyczną kontrolę jakości. Spodziewamy się, że następny raport przejrzystości wykaże postępy w zakresie przyspieszenia czasu rozpatrywania odwołań dotyczących wykorzystywania seksualnego dzieci i zwiększenia precyzji wstępnego egzekwowania zasad związanych z tym tematem.  

Zabezpieczenia dotyczące moderowania treści

Zabezpieczenia stosowane do skanowania mediów CSEA są określone w powyższej sekcji „Zabezpieczenia dotyczące moderowania treści” w Raporcie DSA.


Raport na temat skanowania pod kątem seksualnego wykorzystywania i niegodziwego traktowania dzieci (CSEA)


Tło

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.


Wykorzystujemy interfejs PhotoDNA robust hash-matching oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.


Raport

Poniższe dane opierają się na wynikach proaktywnego skanowania za pomocą PhotoDNA i/lub CSAI Match mediów przesłanych przez rolkę aparatu użytkownika do serwisu Snapchat.

Zapobieganie wykorzystywaniu seksualnemu dzieci jest najwyższym priorytetem. Snap przeznacza na to znaczne zasoby i stosuje politykę zerowej tolerancji dla takiego zachowania. Rozpatrywanie odwołania dotyczącego wykorzystywania seksualnego dzieci wymaga specjalnego szkolenia, a ze względu na drastyczny charakter tego typu treści odwołania te są rozpatrywane przez wąski zespół przedstawicieli. Jesienią 2023 Snap wdrożył zmiany w polityce, które wpłynęły na spójność egzekwowania pewnych zasad dotyczących wykorzystywania seksualnego dzieci. Rozwiązaliśmy ten problem poprzez przeszkolenie przedstawicieli i rygorystyczną kontrolę jakości. Spodziewamy się, że następny raport przejrzystości wykaże postępy w zakresie przyspieszenia czasu rozpatrywania odwołań dotyczących wykorzystywania seksualnego dzieci i zwiększenia precyzji wstępnego egzekwowania zasad związanych z tym tematem.  

Zabezpieczenia dotyczące moderowania treści

Zabezpieczenia stosowane do skanowania mediów CSEA są określone w powyższej sekcji „Zabezpieczenia dotyczące moderowania treści” w Raporcie DSA.


Zapobieganie wykorzystywaniu seksualnemu dzieci jest najwyższym priorytetem. Snap przeznacza na to znaczne zasoby i stosuje politykę zerowej tolerancji dla takiego zachowania. Rozpatrywanie odwołania dotyczącego wykorzystywania seksualnego dzieci wymaga specjalnego szkolenia, a ze względu na drastyczny charakter tego typu treści odwołania te są rozpatrywane przez wąski zespół przedstawicieli. Jesienią 2023 Snap wdrożył zmiany w polityce, które wpłynęły na spójność egzekwowania pewnych zasad dotyczących wykorzystywania seksualnego dzieci. Rozwiązaliśmy ten problem poprzez przeszkolenie przedstawicieli i rygorystyczną kontrolę jakości. Spodziewamy się, że następny raport przejrzystości wykaże postępy w zakresie przyspieszenia czasu rozpatrywania odwołań dotyczących wykorzystywania seksualnego dzieci i zwiększenia precyzji wstępnego egzekwowania zasad związanych z tym tematem.  

Zabezpieczenia dotyczące moderowania treści

Zabezpieczenia stosowane do skanowania mediów CSEA są określone w powyższej sekcji „Zabezpieczenia dotyczące moderowania treści” w Raporcie DSA.