2024年4月25日
2024年4月25日
デジタルサービス法(DSA)、オーディオビジュアル・メディア・サービス指令(AVMSD)、オランダメディア法(DMA)、およびテロリズム・コンテンツ・オンライン規制(TCO)により要求されるEU固有の情報を公表する、欧州連合(EU)の透明性のページへようこそ。これらの透明性レポートの最新版は、en-USロケールでご覧いただけます。
Snap Group Limitedは、DSAの目的でSnap B.Vを法務担当者に任命しました。DSAについてはdsa-enquiries [at] snapchat.com、AVMSDおよびDMAについては vsp-enquiries [at] snapchat.com、TCOについてはtco-enquiries [at] snapchat.comの担当者に、[こちら] のサポートサイト、または以下からお問い合わせください。
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands
法執行機関の方は、こちらに記載されている手順でお問い合わせください。
お問い合わせは英語かオランダ語でお願いします。
DSAの場合、当社は欧州委員会とオランダ消費者市場局(ACM)によって規制されています。AVMSDとDMAについては、オランダメディア局(CvdM)の規制を受けています。TCOは、オンラインテロリストコンテンツおよび児童性的虐待資料(ATKM)防止のためのオランダ当局によって規制されています。
Snapは、DSAの第15条、第24条、第42条により、「オンラインプラットフォーム」と見なされるSnapchatのサービス(Spotlight、For You、Public Profiles、Maps、Lenses、Advertisingなど)について、Snapのコンテンツモデレーションに関する所定の情報を含む報告書を公表することが義務付けられています。このレポートは、2023年10月25日から6ヶ月ごとに発行する必要があります。
Snapは年に2回透明性レポートを発行し、Snapの安全対策と当社のプラットフォームで報告されるコンテンツの性質と量に関する洞察を提供します。2023年下半期(7月1日~12月31日)の最新レポートはこちらでご覧いただけます(2024年8月1日時点の月間平均アクティブ受信者数の更新については、このページの下部をご覧ください)。デジタルサービス法に固有の指標はこちらでご覧いただけます。
2023年12月31日現在、EU域内のSnapchatアプリの平均月間アクティブ受信者(「AMAR」)は、9090万人です。 これは、過去6か月間を平均すると、EU内にいる9090万人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。
この数字は加盟国によって次のように分類されます。
これらの数値は、現在のDSAルールを満たすために計算され、DSA目的にのみ依存する必要があります。当社は、内部ポリシー、規制当局のガイダンス、テクノロジーの変化に対応し、この数値の算出方法を経時的に変更しており、数値は期間間の比較を目的としたものではありません。また、この算出方法は当社が他の目的で公表している他のアクティブユーザーの数値の算出に使用している方法とは異なる場合があります。
削除要請
この期間中、DSA第9条に基づくEU加盟国からの削除要請は0件ありました。
情報提供要請
この期間中、DSA第10条に基づきEU加盟国から以下の情報提供要請を受け取りました。
情報提供要請の受領を当局に通知するまでの所要時間の中央値は0分です。当社は、受領確認の自動応答を提供しています。情報提供要請が有効になるまでの所要時間の中央値は、約10日間です。この指標は、SnapがIRを受領してから、リクエストが完全に解決したとSnapが判断するまでの期間を反映します。場合によっては、このプロセスの長さは、リクエストを処理するために必要なSnapからの説明要請に対する法執行機関の対応速度に一部依存します。
Snapchatのすべてのコンテンツは、当社のコミュニティガイドラインと利用規約、およびサポート用語、ガイドライン、説明者を遵守する必要があります。 プロアクティブな検出メカニズムおよび違法または違反コンテンツまたはアカウントのレポートがレビューを促し、その時点で、当社のツールシステムはリクエストを処理し、関連するメタデータを収集し、効果的かつ効率的なレビュー作業を促進するように設計された構造化されたユーザーインターフェイスを介して、当社のモデレーションチームに関連コンテンツをルーティングします。当社のモデレーションチームが、人によるレビューまたは自動化された手段のいずれかによって、ユーザーが当社の規約に違反していると判断した場合、当社は、Snapchatのモデレーション、執行、および不服申し立てに関する説明で説明されているとおり、問題のあるコンテンツまたはアカウントを削除し、該当するアカウントの閲覧を停止または制限し、および/または法執行機関に通知する場合があります。コミュニティガイドライン違反で当社の安全チームによってアカウントがロックされているユーザーは、ロックされたアカウントの訴求を提出することができ、特定のコンテンツ執行に訴えることができます。
コンテンツおよびアカウントの通知(DSA第15.1条(b))
Snapは、ユーザーおよび非ユーザーが、DSA第16条に基づき違法とみなされるものを含め、プラットフォーム上の当社のコミュニティガイドラインおよび利用規約に違反するコンテンツおよびアカウントについて、Snapに通知できるメカニズムを導入しています。 これらの報告メカニズムは、アプリ自体(つまり、コンテンツから直接)および当社のウェブサイトで利用できます。
関連する期間中、EUでは以下のコンテンツおよびアカウントの通知を受け取りました。
2023年上半期には、自動化された手段だけで664,896件の通知を処理しました。これらはすべて、違法なコンテンツを取りまとめた当社のコミュニティガイドラインに反して施行されました。
ユーザー生成コンテンツやアカウントに加えて、当社のプラットフォームポリシーに違反した場合には、広告を適宜修正します。以下は、EUで報告および削除された広告の合計です。
トラステッドフラッガーの通知(第15.1条(b))
最新の透明性レポート(2023年上半期)の期間中、DSAの下で正式に任命されたトラステッドフラッガーはいませんでした。その結果、この期間にそのようなトラステッドフラッガーが提出した通知の数は、ゼロ(0)件でした。
積極的なコンテンツモデレーション(第15.1条(c))
関連する期間中、Snapは独自のイニシアチブでコンテンツモデレーションを行い、EU内で以下のコンテンツおよびアカウントに強制執行を行いました。
Snap独自のイニシアチブによるモデレーションの取り組みはすべて、人的または自動的機能を活用しました。公共コンテンツの表面では、コンテンツは一般的に自動モデレートとヒューマンレビューの両方を経て、幅広いオーディエンスに配信されます。自動化ツールについては、次のようなものがあります。
機械学習を使用して違法および違反コンテンツのプロアクティブ検出、
ハッシュマッチングツール(PhotoDNAやGoogleのCSAI Matchなど)、
絵文字を含む、特定され定期的に更新される暴力的なキーワードのリストに基づいて、コンテンツを拒否するための暴力的な言語の検出
アピール(第15.1条(d))
関連する期間中、Snapは社内苦情処理システムを通じて、EU内で以下のコンテンツおよびアカウントのアピールを処理しました。