Unia Europejska
Ostatnia aktualizacja: 7 lutego 2024 r.

Zapraszamy na naszą stronę o Europejskiej Transparentności, na której publikujemy wszystkie informacje dla obszaru Unii Europejskie (UE), wymagane przez zapisy europejskiej ustawy o usługach cyfrowych (DSA), dyrektywy o audiowizualnych usługach medialnych (AVMSD) i holenderskiej ustawie medialnej (DMA).  

Średnia liczba aktywnych odbiorców w skali miesiąca 

Według stanu na 1 sierpnia 2023 r. średnia liczba aktywnych odbiorców naszej aplikacji Snapchat w skali miesiąca w UE wynosi 102 mln użytkowników. Oznacza to, że w okresie ostatnich sześciu miesięcy, średnio 102 mln zarejestrowanych użytkowników z UE otworzyło aplikację Snapchat co najmniej raz w ciągu danego miesiąca.

Jeśli chodzi o podział na państwa członkowskie, liczby te rozkładają się następująco:

Wartości te zostały obliczone na potrzeby zgodności z obowiązującymi zasadami DSA i należy je wykorzystywać wyłącznie do celów związanych z zasadami DSA. Możemy zmieniać sposób obliczania tej wartości w miarę upływu czasu, w tym w odpowiedzi na zmieniające się wytyczne i technologie organów regulacyjnych. Wartości mogą również różnić się od obliczeń wykorzystywanych w przypadku innych danych dotyczących aktywności użytkowników, które publikujemy w innych celach.

Przedstawiciel prawny 

Firma Snap Group Limited wyznaczyła firmę Snap B.V. na swojego przedstawiciela prawnego. Z przedstawicielem można skontaktować się pod adresem email dsa-enquiries [at] snapchat.com w sprawie DSA, pod adresem email vsp-enquiries [at] snapchat.com w sprawie AVMSD i DMA, za pośrednictwem naszej strony Wsparcia [tutaj] lub pod adresem:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

Jeśli reprezentują Państwo organy ścigania, proszę postępować zgodnie z instrukcjami opisanymi w tym dokumencie.

Organy regulacyjne

W przypadku DSA organem regulacyjnym jest Komisja Europejska oraz holenderski Urząd ds. Konsumentów i Rynków (ACM). 

W kwestii AVMSD i DMA podlegamy jurysdykcji holenderskiego Urzędu ds. Mediów (CvdM).

Raport przejrzystości DSA

Zgodnie z art. 15, 24 i 42 ustawy DSA firma Snap ma obowiązek publikowania raportów zawierających określone dane dotyczące moderowania przez Snap treści usług Snapchat, które są uznawane za „platformy online”, tj. Polecane, Dla Ciebie, profile publiczne, mapy, Nakładki i reklamy. Taki raport musi być publikowany co 6 miesięcy od 25 października 2023 r.

Firma Snap publikuje raporty przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snap na rzecz bezpieczeństwa oraz charakter, a także ilość treści zgłaszanych na naszej platformie. Nasz najnowszy raport za pierwszą połowę 2023 r. (od 1 stycznia do 30 czerwca) można znaleźć tutaj. Ten raport zawiera następujące informacje:

  • Wnioski rządowe, które obejmują wnioski o usunięcie danych oraz treści; 

  • Naruszenia treści, w tym działania podjęte w związku z nielegalnymi treściami i medianę czasu reakcji; 

  • Odwołania otrzymywane i rozpatrywane w ramach naszego wewnętrznego procesu rozpatrywania skarg.

Te sekcje dotyczą informacji wymaganych zgodnie z art. 15.1 lit. a, b oraz d DSA. Należy pamiętać, że nie są to jeszcze pełne zestawy danych, ponieważ najnowszy raport obejmuje pierwszą połowę 2023 r. przed wejściem w życie DSA. 

Poniżej przedstawiamy kilka dodatkowych informacji na temat kwestii nieobjętych raportem przejrzystości za pierwszą połowę 2023 r.:

Moderowanie treści (art. 15.1 lit. c oraz e, art. 42.2)

Wszystkie treści na Snapchacie muszą być zgodne z naszymi wytycznymi dla społeczności oraz regulaminem, a także dodatkowymi warunkami, wytycznymi i objaśnieniami. Mechanizmy aktywnego wykrywania oraz zgłaszania nielegalnych lub stanowiących naruszenie treści i kont prowadzą do weryfikacji, w ramach której nasze systemy przetwarzają zgłoszenie, gromadzą odpowiednie metadane oraz przesyłają związaną ze zgłoszeniem treść do naszego zespołu moderatorów za pośrednictwem uporządkowanego interfejsu użytkownika, ułatwiającego skuteczny i wydajny proces weryfikacji. Po stwierdzeniu przez zespoły moderatorów w sposób zautomatyzowany lub w ramach weryfikacji człowieka, że użytkownik naruszył nasze warunki, możemy usunąć obraźliwe treści lub konto, zablokować odpowiednie konto lub ograniczyć jego widoczność i powiadomić organy ścigania zgodnie z opisem w przewodniku po zasadach Snapchat dotyczących moderowania, egzekwowania zasad i odwołania.  Użytkownicy, których konta zostały zablokowane przez nasz zespół ds. bezpieczeństwa za naruszenie wytycznych dla społeczności, mogą przesłać odwołanie od blokady konta. Użytkownicy mogą odwołać się od określonych środków egzekwowania zasad dotyczących treści.

Narzędzia do zautomatyzowanego moderowania treści

W obszarze treści publicznych, przed zakwalifikowaniem ich do udostępnienia odbiorcom, są one zazwyczaj poddawane automatycznemu moderowaniu oraz weryfikacji przez człowieka. Zautomatyzowane narzędzia w tym zakresie obejmują:

  • Proaktywne wykrywanie nielegalnych i naruszających zasady treści z wykorzystaniem uczenia maszynowego;

  • Narzędzia dopasowania hasztagów (takie jak PhotoDNA i CSAI Match firmy Google);

  • Narzędzie wykrywania obraźliwego języka w celu odrzucania zawierającej go treści w oparciu o regularnie aktualizowaną listę zidentyfikowanych słów kluczowych o charakterze obraźliwym, w tym emoji.

W okresie objętym naszym najnowszym raportem przejrzystości (pierwsza połowa 2023 r.) nie obowiązywał wymóg zestawienia formalnych wskaźników / częstości błędów dotyczących tych zautomatyzowanych systemów. Mimo to regularnie monitorujemy te systemy pod kątem problemów, a nasze decyzje podejmowane przez moderatorów są regularnie weryfikowane pod kątem trafności.


Moderowanie przez człowieka

Nasz zespół moderatorów działa na obszarze całego świata, dzięki czemu możemy zapewnić bezpieczeństwo użytkownikom Snapa przez całą dobę i 7 dni w tygodniu. Poniżej dostępne jest zestawienie moderatorów według specjalności językowej (należy pamiętać, że niektórzy moderatorzy specjalizują się w kilku językach) - stan na sierpień 2023 r.

Powyższe liczby często się zmieniają w związku z pojawiającymi się trendami w zakresie ilości treści lub nadesłanych materiałów w danym języku/z danego kraju. Gdy potrzebujemy dodatkowego wsparcia językowego, korzystamy z usług tłumaczeniowych.

Moderatorów rekrutujemy za pomocą standardowego opisu oferty pracy, zawierającego wymóg językowy (w zależności od potrzeby). Wymóg językowy określa, że kandydat powinien płynnie władać językiem w piśmie i w mowie, a także mieć przynajmniej rok doświadczenia zawodowego na stanowiskach dla początkujących. Ponadto, jeśli kandydaci chcą być brani pod uwagę, muszą spełnić wymogi związane z wykształceniem. Muszą również wykazać się zrozumieniem aktualnych wydarzeń w kraju lub regionie, którego treści będą moderować. 

Nasz zespół moderatorów stosuje się do naszych zasad i środków egzekwowania, aby pomóc w ochronie społeczności Snapchat. Gwarantujemy kilkutygodniowe szkolenie, podczas którego nowi członkowie zespołu zapoznają się z obowiązującymi w firmie Snap zasadami, narzędziami i procedurami przekazywania treści na wyższy poziom. Po ukończeniu szkolenia każdy moderator musi zdać egzamin poświadczający. Dopiero wtedy zostaną oni dopuszczeni od przeglądania treści. Nasz zespół moderatorów regularnie uczestniczy w istotnych dla ich organizacji pracy szkoleniach utrwalających, szczególnie wtedy, kiedy natrafimy na sprawy, będące na granicy ustaleń naszej polityki lub zależne od kontekstu. Ponadto prowadzimy programy podnoszenia kwalifikacji, sesje poświadczające oraz quizy. Chcemy w ten sposób dopilnować, aby każdy moderator miał aktualną wiedzę i był na bieżąco z aktualizacjami naszych zasad. Natomiast gdy pojawią się oparte na bieżących wydarzeniach trendy w treści, błyskawicznie rozpowszechniamy objaśnienia polityki, aby nasze zespoły mogły reagować zgodnie z zasadami firmy Snap.

Zapewniamy naszemu zespołowi moderatorów treści, czyli tzw. pierwszej linii cyfrowej Snapa, istotne wsparcie oraz zasoby. Wśród nich są wspieranie kondycji fizycznej w trakcie pracy oraz łatwy dostęp do opieki zdrowia psychicznego. 


Zabezpieczenia moderowania treści

Jesteśmy świadomi zagrożeń związanych z moderowaniem treści. Są wśród nich zagrożenie wolności wyrażania siebie i zgromadzeń, które może wynikać z uprzedzeń moderujących maszyn lub zajmujących się moderacją ludzi, a także naruszających zasady zgłoszeń, w tym od władz, politycznych okręgów wyborczych lub dobrze zorganizowanych osób. Ogólnie rzecz biorąc, Snapchat nie jest miejscem dla treści politycznych lub aktywistycznych, szczególnie w naszych przestrzeniach publicznych. 

Niemniej, aby zabezpieczyć się przed takimi zagrożeniami, firma Snap prowadzi testy i szkolenia. Ponadto stosujemy sztywne i konsekwentne procedury radzenia sobie ze zgłoszeniami nielegalnych lub naruszających zasady treści, w tym procedury obejmujące udział organów ścigania i organów rządowych. Stale oceniamy i rozwijamy nasze algorytmy moderowania treści. O ile trudno jest wykryć potencjalne zagrożenia dla wolności ekspresji, nic nam nie wiadomo o żadnych istotnych problemach, a jeśli się pojawią, nasi użytkownicy są wyposażeni w narzędzia zgłaszania błędów. 

Nasze zasady i systemy opierają się na spójnym i uczciwym egzekwowaniu. Oprócz tego, jak opisano powyżej, zapewniamy Snapchatterom okazję do skutecznego odwołania się od wyników egzekucji, za pośrednictwem procedur powiadomień i odwołań. Ich celem jest zabezpieczenie interesów naszej społeczności, przy jednoczesnej ochronie praw pojedynczych Snapchatterów.

Stale dążymy do usprawnienia naszych zasad i procedur egzekucyjnych. Poczyniliśmy też ogromne postępy w walce z potencjalnie szkodliwymi i nielegalnymi treściami oraz działaniami na Snapchacie. Znajduje to odzwierciedlenie w tendencji wzrostowej danych o zgłaszaniu i egzekwowaniu z naszego najnowszego raportu przejrzystości, a także w spadku wskaźników występowania przemocy na całym obszarze Snapchat. 


Powiadomienia Zaufanych Oznaczających (artykuł 15.1b))

Podczas okresu objętego w naszym najnowszym raporcie przejrzystości (pierwsza połowa 2023 r.), formalnie nie istniała jeszcze taka funkcja, jak Zaufani Oznaczający w ramach DSA. W rezultacie liczba złożonych przez nich powiadomień w tamtym okresie wyniosła zero (0).


Spory pozasądowe (art. 24.1(a))

Podczas okresu objętego w naszym najnowszym raporcie przejrzystości (pierwsza połowa 2023 r.), formalnie nie było mianowanych organów ds. pozasądowego rozstrzygania sporów w ramach DSA. W rezultacie liczba sporów zgłoszonych do takich organów wyniosła w tym okresie zero (0).


Zawieszenia konta na mocy artykułu 23 (art. 24.1(b))

Podczas okresu objętego naszym najnowszym raportem przejrzystości (pierwsza połowa 2023 r.), nie było potrzeby zawieszania kont na mocy artykułu 23 DSA w związku z epatowaniem nielegalnymi treściami, nieuzasadnionymi powiadomieniami lub nieuzasadnionymi skargami. W rezultacie zawieszono zero (0) takich kont. Jednakże firma Snap podejmuje odpowiednie działania egzekucyjne przeciwko kontom (co zostało objaśnione w naszym Przewodniku po zasadach Snapchata odnośnie moderowania, egzekwowania i odwołań), natomiast informacje o poziomie egzekwowania przepisów przez firmę Snap, znajdują się w naszym raporcie przejrzystości (pierwsza połowa 2023 r.).