Avrupa Birliği
1 Temmuz 2023 - 31 Aralık 2023

Yayınlanma tarihi:

25 Nisan 2024

Güncelleme tarihi:

25 Nisan 2024

Dijital Hizmetler Yasası (DSA), Görsel-İşitsel Medya Hizmet Yönergesi (AVMSD), Hollanda Medya Yasası (DMA) ve Terörist İçerik Çevrimiçi Düzenlemesi (TCO) ile gerekli kılınan, AB'ye özel bilgileri yayınladığımız Avrupa Birliği (AB) şeffaflık sayfamıza hoş geldiniz. Bu Şeffaflık Raporlarının en güncel sürümlerinin ABD yerel ayarında bulunabileceğini lütfen unutmayın.

Yasal Temsilci 

Snap Group Limited, Snap B.V.'yi DSA amaçları için Yasal Temsilcisi olarak atamıştır. Destek Sitemiz [burada] üzerinden, DSA için dsa-enquiries [at] snapchat.com adresinden, AVMSD ve DMA için vsp-enquiries [at] snapchat.com ve TCO için tco [at] snapchat.com adresinden temsilciyle iletişime geçebilirsiniz veya şu adresi kullanabilirsiniz:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Hollanda

Bir kolluk kuvveti kurumunu temsil ediyorsanız lütfen burada belirtilen adımları izleyin.

Lütfen bizimle İngilizce veya Hollandaca dilleri üzerinden iletişim kurun.

Düzenleyici Kurumlar

Biz DSA kapsamında Avrupa Komisyonu'nun ve Hollanda Tüketiciler ve Piyasalar Kurumu'nun (ACM) düzenlemelerine tabiyiz. AVMSD ve DMA için Hollanda Medya Yetkili Kurumu (CvdM) düzenlemelerine tabiyiz. TCO açısından, Çevrimiçi Terörist İçeriğin ve Çocuk Cinsel İstismarı Materyalinin (ATKM) önlenmesi için Hollanda Makamları tarafından düzenlemeye tabiyiz.

DSA Şeffaflık Raporu

Snap, DSA'nın 15, 24 ve 42. Maddeleri gereğince, Snapchat'in "çevrimiçi platformlar" olarak görülen hizmetleri, yani Sahne Işığı, Senin İçin, Herkese Açık Profiller, Haritalar, Lensler ve Reklam hizmetleri için içerik denetimiyle ilgili olarak belirlenen bilgileri içeren raporlar yayımlamak zorundadır. Bu raporun 25 Ekim 2023'ten itibaren her 6 ayda bir yayımlanması gerekmektedir.

Snap yılda iki kez şeffaflık raporları yayımlayarak Snap'in güvenlik çalışmaları ve platformumuzda bildirilen içeriğin niteliği ve hacmi hakkında bilgi verir. 2023'ün 2. yarısına ilişkin en son raporumuz (1 Temmuz - 31 Aralık) burada bulunabilir (1 Ağustos 2024 itibarıyla Ortalama Aylık Aktif Alıcı sayılarımıza yapılan güncellemeler dahildir - bu sayfanın altına bakınız). Dijital Hizmetler Yasası'na özgü ölçümler bu sayfada bulunabilir.

Ortalama Aylık Aktif Alıcı Sayısı 
(DSA Madde 24.2 ve 42.3)

31 Aralık 2023 itibariyle, AB'de Snapchat uygulamamızın ortalama aylık aktif alıcı sayısı ("AMAR") 90,9 milyon seviyesindedir. Yani bu, son 6 ay boyunca AB'de ortalama olarak 90,9 milyon kayıtlı kullanıcının belirli bir ay boyunca Snapchat uygulamasını en az bir kez açtığı anlamına geliyor.

Bu rakamın, Üye Devletlere göre dağılımı şu şekildedir:

Bu sayılar yürürlükteki Dijital Hizmetler Yasası (DSA) kurallarına uymak için hesaplanmıştır ve yalnızca DSA amaçları için dikkate alınmalıdır. Değişen iç politikaya, düzenleyici kurum kılavuzuna ve teknolojiye uygunluğu sağlamayı da içeren sebeplerden ötürü bu sayıyı hesaplama yöntemimizi değiştirdik. Sayılar, dönemler arasında karşılaştırma yapmaya yönelik değildir. Ayrıca bu hesaplama yöntemi başka amaçlarla yayımladığımız diğer aktif kullanıcı sayılarını hesaplama yöntemlerinden farklı olabilir.


Üye Devletlerin Yetki Talepleri
(DSA Madde 15.1(a))

Kaldırma Talepleri 

Bu süre zarfında DSA Madde 9 uyarınca AB üye devletlerinden 0 kaldırma talebi aldık. 

Bilgi Talepleri 

Bu süre zarfında DSA Madde 10 uyarınca AB üye devletlerinden aşağıdaki bilgi taleplerini aldık:

Bilgi Taleplerinin alındığı konusunda yetkililere bilgi vermek için ortalama dönüş süresi 0 dakikadır — talebin alındığını onaylayan otomatik bir yanıt sağlarız. Bilgi Taleplerini yürürlüğe koymanın ortalama dönüş süresi yaklaşık 10 gündür. Bu süre, Snap'in bir Bilgi Talebini aldığı andan Snap'in talebin tümüyle karşılandığını düşündüğü ana kadar geçen süreyi yansıtmaktadır. Bazı durumlarda, taleplerin işleme koyulması için Snap'in duruma açıklık getirilmesine yönelik olarak kolluk kuvvetlerine yaptığı başvuruların yanıtlanma hızı bu sürecin uzunluğunu kısmen belirler.

İçerik Denetimi 


Snapchat'teki tüm içerikler Topluluk İlkelerimize ve Kullanım Şartlarımıza, bunların yanı sıra destekleyici şartlara, kurallara ve açıklayıcılara uymalıdır. Proaktif algılama mekanizmaları ve yasa dışı ya da ihlal eden içerik veya hesap bildirimleri bir inceleme isteği oluşturur, bu noktada işleme sistemlerimiz bu isteği işler, ilgili meta verileri toplar ve ilgili içeriği etkili ve verimli inceleme faaliyetlerini kolaylaştırmak için tasarlanmış yapılandırılmış bir kullanıcı arayüzü yoluyla denetleme ekibimize yönlendirir. Denetleme ekiplerimiz ya insan incelemesi ya da otomatik araçlar yoluyla bir kullanıcının Şartlarımızı ihlal ettiğine karar verdiğinde, rahatsız edici içeriği veya hesabı kaldırabilir, ilgili hesabın görünürlüğünü sonlandırabilir veya sınırlayabilir ve/veya Snapchat Denetleme, Yaptırım ve İtirazlar Açıklayıcımızda açıklandığı gibi kolluk kuvvetlerine ihbarda bulunabiliriz.  Hesapları güvenlik ekibimiz tarafından Topluluk İlkeleri ihlalleri nedeniyle kilitlenen kullanıcılar hesabın kilitlenmesine itiraz gönderebilirler ve bazı içerik yaptırımlarına itiraz edebilirler.

İçerik ve Hesap Bildirimleri (DSA Madde 15.1(b))

Snap, kullanıcıların ve kullanıcı olmayanların, DSA Madde 16 uyarınca yasa dışı gördükleri durumlar da dahil olmak üzere platformda Topluluk İlkelerimizi ve Kullanım Şartlarımızı ihlal eden içerik ve hesapları Snap'e bildirmesine olanak tanıyan mekanizmaları devreye sokmuştur.  Bu bildirim mekanizmaları, uygulamanın kendisinde (yani doğrudan içerik parçasında) ve web sitemizde mevcuttur.

İlgili dönem boyunca AB'de aşağıdaki içerik ve hesap bildirimlerini aldık:

2023'ün 2. yarısında 664.896 bildirimi sadece otomatik araçlar aracılığıyla ele aldık. Bunların hepsi Topluluk İlkelerimize aykırı olduğu gerekçesiyle işleme tabi tutulmuştur çünkü Topluluk İlkelerimiz yasa dışı içerikleri kapsar. 

Kullanıcı tarafından oluşturulan içerik ve hesaplara ek olarak, reklamların da platform politikalarımızı ihlal edip etmediğini denetliyoruz. AB'de bildirilen ve kaldırılan reklamlar aşağıda verilmiştir. 

Güvenilir İşaretleyici Bildirimleri (Madde 15.1(b))

En son Şeffaflık Raporumuzun kapsadığı dönemde (2023'ün 2. yarısı) DSA altında resmî olarak atanmış hiçbir Güvenilir İşaretleyici yoktu. Sonuç olarak, bu tür Güvenilir İşaretleyiciler tarafından gönderilen bildirim sayısı bu dönemde sıfır (0) oldu.

Proaktif İçerik Denetlemesi (Madde 15.1(c))

İlgili dönem boyunca Snap, kendi inisiyatifiyle içerik denetlemesi yaptıktan sonra AB'de aşağıdaki içerik ve hesaplara karşı işlem uyguladı:

Snap'in kendi inisiyatifiyle yürüttüğü denetleme çabalarının tümü insanlardan veya otomasyondan yararlanmıştır. Herkese açık içerik alanlarımızdaki içerikler geniş bir izleyici kitlesine dağıtıma uygun hale gelmeden önce genelde hem otomatik denetlemeden hem de insan incelemesinden geçer. Otomatik araçlar arasında şunlar yer alır:

  • Yasa dışı ve ihlal eden içeriğin makine öğrenmesi yardımıyla proaktif algılanması;

  • Karma eşleştirme araçları (PhotoDNA ve Google'ın CSAI Eşleştirmesi gibi);

  • İçeriğin, emojiler de dahil, oluşturulmuş ve düzenli olarak güncellenen uygunsuz anahtar sözcükler listesine göre reddedilmesini sağlayan Uygunsuz Dil Algılama


İtirazlar (Madde 15.1(d))

İlgili dönem boyunca Snap, kendi bünyesinde bulunan şikayet yönetim sistemleri aracılığıyla AB'de aşağıdaki içerik ve hesap itirazlarını işleme aldı:


* Çocuğun cinsel istismarını durdurmak en önemli önceliktir. Snap bu konuya önemli kaynaklar ayırmaktadır ve bu tür davranışlara sıfır tolerans göstermektedir.  ÇCİ itirazlarını incelemek için özel eğitim gereklidir ve içeriğin grafik yapısı nedeniyle bu incelemeleri yapan sınırlı sayıda temsilci ekibi vardır.  Snap, 2023 sonbaharında belirli ÇCİ yaptırımlarının tutarlılığını etkileyen politika değişiklikleri uyguladı ve bu tutarsızlıkları temsilcilerin yeniden eğitilmesi ve sıkı kalite kontrolü yoluyla giderdik.  Bir sonraki şeffaflık raporunun, ÇCİ itirazları için yanıt sürelerinin iyileştirilmesi ve ilk yaptırımların doğruluğunun artırılmasına yönelik ilerlemeyi ortaya koymasını bekliyoruz. 

İçerik denetlemesi için otomatik araçlar (Madde 15.1(e))

Herkese açık içerik alanlarımızdaki içerikler, geniş bir izleyici kitlesine dağıtıma uygun hale gelmeden önce genelde hem otomatik denetlemeden hem de insan incelemesinden geçer. Otomatik araçlar arasında şunlar yer alır:

  • Yasa dışı ve ihlal eden içeriğin makine öğrenmesi yardımıyla proaktif algılanması;

  • Karma eşleştirme araçları (PhotoDNA ve Google CSAI Match gibi);

  • İçeriğin, emojiler de dahil, belirlenmiş ve düzenli olarak güncellenen bir uygunsuz anahtar sözcükler listesine göre reddedilmesini sağlayan Uygunsuz Dil Algılama.


Tüm zarar türleri için kullanılan otomatik denetim teknolojilerinin doğruluğu yaklaşık %96,61 ve hata oranı yaklaşık %3,39'dur.


İçerik Denetimi Korumaları (Madde 15.1(e))

Otomatik ve insan moderatör yanlılığı ve hükümetler, siyasi destek grupları veya iyi organize olmuş bireylerin kötüye kullanım içeren bildirimleri sebebiyle ifade ve toplanma özgürlüğüne yönelik oluşan riskler de dâhil, içerik moderasyonu ile ilişkili riskler bulunduğunun farkındayız. Snapchat, genel olarak, özellikle de herkese açık alanlarımızda, siyasi veya aktivist içerik yeri değildir. 


Buna rağmen, bu risklerden korunmak için Snap, bir test ve eğitim süreci yürütür ve kolluk kuvvetleri ve devlet makamlarından gelenler de dâhil olmak üzere yasa dışı veya ihlal edici içeriğe dair raporları ele almak için sağlam, tutarlı prosedürlere sahiptir. İçerik moderasyon algoritmalarımızı sürekli olarak değerlendiriyor ve geliştiriyoruz. İfade özgürlüğüne yönelik potansiyel zararların tespit edilmesi zor olsa da herhangi bir önemli sorundan haberdar değiliz ve kullanıcılarımıza hatalar meydana gelmesi halinde bunları bildirebilmeleri için çeşitli yollar sunuyoruz. 


Politikalarımız ve sistemlerimiz tutarlı ve adil yaptırımları teşvik eder ve yukarıda açıklandığı gibi, Snapchat kullanıcılarına, topluluğumuzun çıkarlarını korurken, aynı zamanda bireysel Snapchat kullanıcılarının haklarını da korumayı hedefleyen Bildirim ve İtiraz süreçleri aracılığıyla yaptırım sonuçlarına anlamlı bir şekilde itiraz etme olanağı sunar.

Yaptırım politikalarımızı ve süreçlerimizi sürekli olarak geliştirmeye çalışıyoruz ve Snapchat'te potansiyel olarak zararlı ve yasa dışı içerik ve faaliyetlerle mücadele konusunda önemli adımlar attık. Bu, en son Şeffaflık Raporumuzda gösterilen raporlama ve yaptırım rakamlarımızdaki artış trendinde ve Snapchat'teki ihlallerin yaygınlık oranlarının genel olarak düşmesinde de görülüyor.


Mahkeme Dışı Uzlaşmalar (Madde 24.1(a))

En son Şeffaflık Raporumuzun kapsadığı dönemde (2023'ün 2. yarısı) DSA altında resmî olarak atanmış hiçbir mahkeme dışı uyuşmazlık çözüm organı bulunmuyordu. Sonuç olarak, bu dönemde bu tür kurumlara gönderilen ihtilaf sayısı sıfır (0) olarak kayda geçti ve bu nedenle bu başvuruların sonuçlarını, uzlaşma için ortalama geri dönüş sürelerini ve kurumun kararlarını uyguladığımız uyuşmazlıkların yüzdesini belirleyemiyoruz. 



Hesap Askıya Alma İşlemleri (Madde 24.1(b))

2023'ün ikinci yarısında,  23. Madde uyarınca uygulanan herhangi bir askıya alma işlemi gerçekleştirmedik. Snap'in Güven ve Güvenlik ekibi, kullanıcı hesaplarının sık sık açıkça asılsız olan bildirimler veya şikayetler gönderme olasılığını sınırlamak için gerekli prosedürlere sahiptir. Bu prosedürler arasında mükerrer rapor oluşturmanın kısıtlanması ve sık sık açıkça asılsız raporlar gönderen kullanıcıların bunu yapmaya devam etmelerini önlemek için e-posta filtrelerinin kullanılması yer almaktadır. Snap, Snapchat Denetleme, Yaptırım ve İtirazlar Açıklayıcısı'nda açıklandığı şekilde hesaplara karşı uygun yaptırım işlemini uygular ve Snap'in hesap yaptırım düzeyine ilişkin bilgiler Şeffaflık Raporumuzda (2023'ün 2. yarısı) bulunabilir. Bu tür önlemler gözden geçirilmeye ve yinelenmeye devam edecektir.


Moderatör Kaynakları, Uzmanlıklar ve Destek (Madde 42.2)

İçerik denetleme ekibimiz dünya genelinde çalışarak Snapchat kullanıcılarının 7/24 korunmalarına yardımcı olabilmemizi sağlıyor. Aşağıda, 31 Aralık 2023 itibarıyla insan denetlemesi kaynaklarımızın moderatörlerin dil uzmanlıklarına (bazı moderatörlerin birden fazla dilde uzmanlaştıklarını aklınızda bulundurun) göre bir dökümünü bulabilirsiniz:

Yukarıdaki tabloda, 31 Aralık 2023 tarihinden itibaren AB üye devleti dillerini destekleyen tüm moderatörler yer almaktadır. İlave dil desteğine ihtiyaç duyduğumuz durumlarda çeviri hizmetlerinden yararlanıyoruz.

Moderatörler, bir dil gerekliliği (ihtiyaca bağlı olarak) içeren standart bir iş tanımı kullanılarak işe alınır. Dil gerekliliği, adayın ilgili dilde yazılı ve sözlü akıcılık gösterebilmesi ve giriş seviyesinde pozisyonlar için en az bir yıllık iş deneyimine sahip olması gerektiğini belirtir. Adayların değerlendirmeye alınabilmeleri için eğitim ve özgeçmiş şartlarını karşılamaları gerekmektedir. Adaylar ayrıca, destekleyecekleri içerik moderasyonunun ülkesi veya bölgesindeki güncel olaylara hâkim olduklarını da göstermelidir.

Moderasyon ekibimiz, Snapchat topluluğumuzun korunmasına yardımcı olmak için politikalarımızı ve yaptırım önlemlerimizi uygular. Birkaç haftalık bir süre boyunca eğitim gerçekleştirilir ve eğitimde yeni ekip üyeleri Snap'in politikaları, araçları ve üst makamlara bildirime prosedürleri hakkında eğitim alır. Eğitimin ardından, her moderatörün, içeriği gözden geçirmesine izin verilmeden önce bir sertifikasyon sınavından geçmesi gerekir. Moderasyon ekibimiz düzenli olarak, özellikle de politika sınırında ve kapsama bağlı durumlarla karşılaştığımızda iş akışları ile ilgili yenileme eğitimlerine katılır. Ayrıca beceri geliştirme programları, sertifikasyon oturumları ve sınavlar düzenleyerek tüm moderatörlerin güncel kalmasını ve tüm geçerli politikalara uymasını sağlıyoruz. Son olarak, güncel olaylara göre acil içerik trendleri ortaya çıktığında, Snap'in politikalarına göre yanıt verebilmeleri için politika açıklamalarını hızla yayınlıyoruz.

İçerik moderasyon ekibimize, yani Snap'in "dijitalde ilk yanıtlayıcılarına", işte sağlık desteği ve ruhsal sağlık hizmetlerine kolay erişim dâhil olmak üzere ciddi destek ve kaynak sağlıyoruz. 

Çocuklara Yönelik Cinsel Sömürü ve Suistimal (CSEA) Medya Tarama Raporu


Arka plan

Başta çocuklar olmak üzere topluluğumuzun herhangi bir üyesine yönelik cinsel istismar yasa dışı ve son derece uygunsuz olup Topluluk İlkelerimiz tarafından yasaklanmıştır. Platformumuzda Çocuklara Yönelik Cinsel Sömürü ve Suistimalin (CSEA) önlenmesi, tespit edilmesi ve ortadan kaldırılması Snap için birincil önceliktir ve bu ve diğer türden suçlarla mücadele etme kabiliyetlerimizi sürekli olarak geliştiriyoruz.


Bilinen yasa dışı Çocuklara Yönelik Cinsel İstismar görüntülerini ve videolarını belirlemek ve bunu yasa gereği, ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'ne (NCMEC) bildirmek için sırasıyla PhotoDNA sağlam karma eşleştirme ve Google'ın Çocuklara Yönelik Cinsel İstismar Görüntüleri (CSAI) Eşlemeyi kullanıyoruz. ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi ise buna karşılık, gerektiği takdirde hem ulusal hem de uluslararası kolluk kuvvetleri ile iş birliği yapar.


Rapor

Aşağıdaki veriler, kullanıcının film rulosundan Snapchat'e yüklediği medyanın PhotoDNA ve/veya CSAI Eşleme kullanılarak elde edilen proaktif taramasının sonucuna dayanmaktadır.

Çocuğa yönelik cinsel istismarı durdurmak en önemli önceliktir. Snap bu konuya önemli kaynaklar ayırmaktadır ve bu tür davranışlara sıfır tolerans göstermektedir.  CSE itirazlarını incelemek için özel eğitim gereklidir ve içeriğin grafik yapısı nedeniyle bu incelemeleri yapan sınırlı sayıda temsilci ekibi vardır. Snap, 2023 sonbaharında belirli CSE yaptırımlarının tutarlılığını etkileyen politika değişiklikleri uyguladı ve bu tutarsızlıkları görevlilerin yeniden eğitilmesi ve titiz kalite güvencesi yoluyla giderdik.  Bir sonraki şeffaflık raporunun, CSE itirazları için yanıt sürelerinin iyileştirilmesi ve ilk yaptırımların hassasiyetinin artırılmasına yönelik ilerlemeyi ortaya koymasını bekliyoruz.  

İçerik Denetleme Önlemleri

CSEA Medya Taramasına yönelik uygulanan önlemler, DSA Raporumuzda bulunan yukarıdaki "İçerik Denetleme Önlemleri" bölümünde yer almaktadır.


Çocuklara Yönelik Cinsel Sömürü ve Suistimal (CSEA) Medya Tarama Raporu


Arka plan

Başta çocuklar olmak üzere topluluğumuzun herhangi bir üyesine yönelik cinsel istismar yasa dışı ve son derece uygunsuz olup Topluluk İlkelerimiz tarafından yasaklanmıştır. Platformumuzda Çocuklara Yönelik Cinsel Sömürü ve Suistimalin (CSEA) önlenmesi, tespit edilmesi ve ortadan kaldırılması Snap için birincil önceliktir ve bu ve diğer türden suçlarla mücadele etme kabiliyetlerimizi sürekli olarak geliştiriyoruz.


Bilinen yasa dışı Çocuklara Yönelik Cinsel İstismar görüntülerini ve videolarını belirlemek ve bunu yasa gereği, ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'ne (NCMEC) bildirmek için sırasıyla PhotoDNA sağlam karma eşleştirme ve Google'ın Çocuklara Yönelik Cinsel İstismar Görüntüleri (CSAI) Eşlemeyi kullanıyoruz. ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi ise buna karşılık, gerektiği takdirde hem ulusal hem de uluslararası kolluk kuvvetleri ile iş birliği yapar.


Rapor

Aşağıdaki veriler, kullanıcının film rulosundan Snapchat'e yüklediği medyanın PhotoDNA ve/veya CSAI Eşleme kullanılarak elde edilen proaktif taramasının sonucuna dayanmaktadır.

Çocuğa yönelik cinsel istismarı durdurmak en önemli önceliktir. Snap bu konuya önemli kaynaklar ayırmaktadır ve bu tür davranışlara sıfır tolerans göstermektedir.  CSE itirazlarını incelemek için özel eğitim gereklidir ve içeriğin grafik yapısı nedeniyle bu incelemeleri yapan sınırlı sayıda temsilci ekibi vardır. Snap, 2023 sonbaharında belirli CSE yaptırımlarının tutarlılığını etkileyen politika değişiklikleri uyguladı ve bu tutarsızlıkları görevlilerin yeniden eğitilmesi ve titiz kalite güvencesi yoluyla giderdik.  Bir sonraki şeffaflık raporunun, CSE itirazları için yanıt sürelerinin iyileştirilmesi ve ilk yaptırımların hassasiyetinin artırılmasına yönelik ilerlemeyi ortaya koymasını bekliyoruz.  

İçerik Denetleme Önlemleri

CSEA Medya Taramasına yönelik uygulanan önlemler, DSA Raporumuzda bulunan yukarıdaki "İçerik Denetleme Önlemleri" bölümünde yer almaktadır.


Çocuğa yönelik cinsel istismarı durdurmak en önemli önceliktir. Snap bu konuya önemli kaynaklar ayırmaktadır ve bu tür davranışlara sıfır tolerans göstermektedir.  CSE itirazlarını incelemek için özel eğitim gereklidir ve içeriğin grafik yapısı nedeniyle bu incelemeleri yapan sınırlı sayıda temsilci ekibi vardır. Snap, 2023 sonbaharında belirli CSE yaptırımlarının tutarlılığını etkileyen politika değişiklikleri uyguladı ve bu tutarsızlıkları görevlilerin yeniden eğitilmesi ve titiz kalite güvencesi yoluyla giderdik.  Bir sonraki şeffaflık raporunun, CSE itirazları için yanıt sürelerinin iyileştirilmesi ve ilk yaptırımların hassasiyetinin artırılmasına yönelik ilerlemeyi ortaya koymasını bekliyoruz.  

İçerik Denetleme Önlemleri

CSEA Medya Taramasına yönelik uygulanan önlemler, DSA Raporumuzda bulunan yukarıdaki "İçerik Denetleme Önlemleri" bölümünde yer almaktadır.


AB DSA: Ortalama Aylık Aktif Alıcı (Ağustos 2024)
(DSA Madde 24.2 ve 42.3)

1 Ağustos 2024 itibariyle, AB genelinde Snapchat uygulamamızın aylık ortalama 92,4 milyon aktif alıcısı ("AMAR") bulunuyor. Yani bu, son 6 ay boyunca AB'de ortalama olarak 92,4 milyon kayıtlı kullanıcının belirli bir ay boyunca Snapchat uygulamasını en az bir kez açtığı anlamına geliyor.

Bu rakamın, Üye Devletlere göre dağılımı şu şekildedir: