EU / 欧州連合
最終更新:2024年2月7日

これらの数値は、現在のDSAルールを満たすために計算され、DSA目的にのみ依存する必要があります。規制当局の指導や技術的な変化への対応を含め、この数値の算出方法は時間の経過とともに変更される可能性があります。また、この算出方法は当社が他の目的で公表している他のアクティブユーザーの数値の算出に使用している方法とは異なる場合があります。

法定代理人 

Snap Group Limitedは、Snap B.V.を法定代理人に任命しています。DSAについてはdsa-enquiries [at] snapchat.com、AVMSDおよびDMAについては vsp-enquiries [at] snapchat.comの担当者に、[こちら] のサポートサイト、または以下からお問い合わせください。

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

法執行機関の方は、こちらに記載されている手順でお問い合わせください。

規制当局

DSAの場合、当社は欧州委員会とオランダ消費者市場局(ACM)によって規制されています。

AVMSDとDMAについては、オランダメディア局(CvdM)の規制を受けています。

DSA透明性レポート

Snapは、DSAの第15条、第24条、第42条により、「オンラインプラットフォーム」と見なされるSnapchatのサービス(Spotlight、For You、Public Profiles、Maps、Lenses、Advertisingなど)について、Snapのコンテンツモデレーションに関する所定の情報を含む報告書を公表することが義務付けられています。このレポートは、2023年10月25日から6ヶ月ごとに発行する必要があります。

Snapは年に2回透明性レポートを発行し、Snapの安全対策と当社のプラットフォームで報告されるコンテンツの性質と量に関する洞察を提供します。2023年上半期(1月1日~6月30日)の最新レポートはこちらでご覧いただけます。このレポートには、次の情報が含まれます。

  • 情報およびコンテンツ削除要求を含む政府の要請、

  • 不正なコンテンツに関連して実行されたアクションと応答時間の中央値を含むコンテンツ違反、

  • 当社の内部苦情処理プロセスを通じて受領され、処理される控訴。

これらのセクションは、DSAの第15.1条(a)、(b)および(d)によって必要とされる情報に関連しています。DSAが発効する前の2023年上半期を最新のレポートが扱っているため、まだ完全なデータセットが含まれていないことに注意してください。

当社は、2023年上半期の透明性レポートで扱われていない側面に関するいくつかの追加情報を以下に提供します。

コンテンツモデレーション(第15.1条(c)及び(e)、第42.2項)

Snapchatのすべてのコンテンツは、コミュニティガイドライン利用規約、およびサポート用語、ガイドライン、説明者を遵守する必要があります。 プロアクティブな検出メカニズムおよび違法または違反コンテンツまたはアカウントのレポートがレビューを促し、その時点で、当社のツールシステムはリクエストを処理し、関連するメタデータを収集し、効果的かつ効率的なレビュー作業を促進するように設計された構造化されたユーザーインターフェイスを介して、当社のモデレーションチームに関連コンテンツをルーティングします。当社のモデレーションチームが、人によるレビューまたは自動化された手段のいずれかによって、ユーザーが当社の規約に違反していると判断した場合、当社は、Snapchatのモデレーション、執行、および不服申し立てに関する説明で説明されているとおり、問題のあるコンテンツまたはアカウントを削除し、該当するアカウントの閲覧を停止または制限し、および/または法執行機関に通知する場合があります。コミュニティガイドライン違反で当社の安全チームによってアカウントがロックされているユーザーは、ロックされたアカウントの訴求を提出することができ、特定のコンテンツ執行に訴えることができます

自動化されたコンテンツモデレートツール

公共コンテンツの表面では、コンテンツは一般的に自動モデレートとヒューマンレビューの両方を経て、幅広いオーディエンスに配信されます。自動化ツールについては、次のようなものがあります。

  • 機械学習を使用して違法および違反コンテンツのプロアクティブ検出、

  • ハッシュマッチングツール(PhotoDNAやGoogleのCSAI Matchなど)、

  • 絵文字を含む、特定され定期的に更新される乱用的なキーワードのリストに基づいてコンテンツを拒否するための乱用的な言語検出。

最新の透明性レポート(2023年上半期)の期間中、これらの自動化システムに関する正式な指標/エラー率を照合する必要はありませんでした。しかし、当社はこれらのシステムを定期的に監視し、人間の節制の決定は定期的に評価されます。


人間のモデレーション

当社のコンテンツモデレーションチームは世界中で活動しており、Snapchatユーザーを24/7安全に保つことができます。以下は、2023年8月現在のモデレーターの専門言語別(複数の言語を専門とするモデレーターがいることに注意)人的モデレーションリソースの内訳です。

EU / 欧州連合の透明性ページへようこそ。こちらでは、EUデジタルサービス法(DSA)、視聴覚メディアサービス指令(AVMSD)、オランダメディア法(DMA)で義務付けられたEUに特有の情報を掲載しています。

毎月の平均アクティブ受信者 

2023年8月1日現在、EU域内のSnapchatアプリの月間アクティブ受信者(「AMAR」)は、1億200万人です。 これは、過去6か月間を平均すると、EU内にいる1.02億人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。

この数字は加盟国によって次のように分類されます。

これらの数値は、現在のDSAルールを満たすために計算され、DSA目的にのみ依存する必要があります。当社は、内部ポリシー、規制当局のガイダンス、テクノロジーの変化に対応し、この数値の算出方法を経時的に変更しており、数値は期間間の比較を目的としたものではありません。また、この算出方法は当社が他の目的で公表している他のアクティブユーザーの数値の算出に使用している方法とは異なる場合があります。


加盟国の当局の要請
(DSA第15.1条(a))

削除要請 

この期間中、DSA第9条に基づくEU加盟国からの削除要請は0件ありました。 

情報提供要請 

この期間中、DSA第10条に基づきEU加盟国から以下の情報提供要請を受け取りました。

情報提供要請の受領を当局に通知するまでの所要時間の中央値は0分です。当社は、受領確認の自動応答を提供しています。情報提供要請が有効になるまでの所要時間の中央値は、約10日間です。この指標は、SnapがIRを受領してから、リクエストが完全に解決したとSnapが判断するまでの期間を反映します。場合によっては、このプロセスの長さは、リクエストを処理するために必要なSnapからの説明要請に対する法執行機関の対応速度に一部依存します。

コンテンツモデレーション 


Snapchatのすべてのコンテンツは、当社のコミュニティガイドライン利用規約、およびサポート用語、ガイドライン、説明者を遵守する必要があります。 プロアクティブな検出メカニズムおよび違法または違反コンテンツまたはアカウントのレポートがレビューを促し、その時点で、当社のツールシステムはリクエストを処理し、関連するメタデータを収集し、効果的かつ効率的なレビュー作業を促進するように設計された構造化されたユーザーインターフェイスを介して、当社のモデレーションチームに関連コンテンツをルーティングします。当社のモデレーションチームが、人によるレビューまたは自動化された手段のいずれかによって、ユーザーが当社の規約に違反していると判断した場合、当社は、Snapchatのモデレーション、執行、および不服申し立てに関する説明で説明されているとおり、問題のあるコンテンツまたはアカウントを削除し、該当するアカウントの閲覧を停止または制限し、および/または法執行機関に通知する場合があります。コミュニティガイドライン違反で当社の安全チームによってアカウントがロックされているユーザーは、ロックされたアカウントの訴求を提出することができ、特定のコンテンツ執行に訴えることができます。

コンテンツおよびアカウントの通知(DSA第15.1条(b))

Snapは、ユーザーおよび非ユーザーが、DSA第16条に基づき違法とみなされるものを含め、プラットフォーム上の当社のコミュニティガイドラインおよび利用規約に違反するコンテンツおよびアカウントについて、Snapに通知できるメカニズムを導入しています。 これらの報告メカニズムは、アプリ自体(つまり、コンテンツから直接)および当社のウェブサイトで利用できます。

関連する期間中、EUでは以下のコンテンツおよびアカウントの通知を受け取りました。

2023年上半期には、自動化された手段だけで664,896件の通知を処理しました。これらはすべて、違法なコンテンツを取りまとめた当社のコミュニティガイドラインに反して施行されました。 

ユーザー生成コンテンツやアカウントに加えて、当社のプラットフォームポリシーに違反した場合には、広告を適宜修正します。以下は、EUで報告および削除された広告の合計です。 

トラステッドフラッガーの通知(第15.1条(b))

最新の透明性レポート(2023年上半期)の期間中、DSAの下で正式に任命されたトラステッドフラッガーはいませんでした。その結果、この期間にそのようなトラステッドフラッガーが提出した通知の数は、ゼロ(0)件でした。

積極的なコンテンツモデレーション(第15.1条(c))

関連する期間中、Snapは独自のイニシアチブでコンテンツモデレーションを行い、EU内で以下のコンテンツおよびアカウントに強制執行を行いました。

Snap独自のイニシアチブによるモデレーションの取り組みはすべて、人的または自動的機能を活用しました。公共コンテンツの表面では、コンテンツは一般的に自動モデレートとヒューマンレビューの両方を経て、幅広いオーディエンスに配信されます。自動化ツールについては、次のようなものがあります。

  • 機械学習を使用して違法および違反コンテンツのプロアクティブ検出、

  • ハッシュマッチングツール(PhotoDNAやGoogleのCSAI Matchなど)、

  • 絵文字を含む、特定され定期的に更新される暴力的なキーワードのリストに基づいて、コンテンツを拒否するための暴力的な言語の検出


アピール(第15.1条(d))

関連する期間中、Snapは社内苦情処理システムを通じて、EU内で以下のコンテンツおよびアカウントのアピールを処理しました。


EU / 欧州連合の透明性ページへようこそ。こちらでは、EUデジタルサービス法(DSA)、視聴覚メディアサービス指令(AVMSD)、オランダメディア法(DMA)で義務付けられたEUに特有の情報を掲載しています。

毎月の平均アクティブ受信者 

2023年8月1日現在、EU域内のSnapchatアプリの月間アクティブ受信者(「AMAR」)は、1億200万人です。 これは、過去6か月間を平均すると、EU内にいる1.02億人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。

この数字は加盟国によって次のように分類されます。

これらの数値は、現在のDSAルールを満たすために計算され、DSA目的にのみ依存する必要があります。規制当局の指導や技術的な変化への対応を含め、この数値の算出方法は時間の経過とともに変更される可能性があります。また、この算出方法は当社が他の目的で公表している他のアクティブユーザーの数値の算出に使用している方法とは異なる場合があります。

法定代理人 

Snap Group Limitedは、Snap B.V.を法定代理人に任命しています。DSAについてはdsa-enquiries [at] snapchat.com、AVMSDおよびDMAについては vsp-enquiries [at] snapchat.comの担当者に、[こちら] のサポートサイト、または以下からお問い合わせください。

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

法執行機関の方は、こちらに記載されている手順でお問い合わせください。

規制当局

DSAの場合、当社は欧州委員会とオランダ消費者市場局(ACM)によって規制されています。

AVMSDとDMAについては、オランダメディア局(CvdM)の規制を受けています。

DSA透明性レポート

Snapは、DSAの第15条、第24条、第42条により、「オンラインプラットフォーム」と見なされるSnapchatのサービス(Spotlight、For You、Public Profiles、Maps、Lenses、Advertisingなど)について、Snapのコンテンツモデレーションに関する所定の情報を含む報告書を公表することが義務付けられています。このレポートは、2023年10月25日から6ヶ月ごとに発行する必要があります。

Snapは年に2回透明性レポートを発行し、Snapの安全対策と当社のプラットフォームで報告されるコンテンツの性質と量に関する洞察を提供します。2023年上半期(1月1日~6月30日)の最新レポートはこちらでご覧いただけます。このレポートには、次の情報が含まれます。

  • 情報およびコンテンツ削除要求を含む政府の要請、

  • 不正なコンテンツに関連して実行されたアクションと応答時間の中央値を含むコンテンツ違反、

  • 当社の内部苦情処理プロセスを通じて受領され、処理される控訴。

これらのセクションは、DSAの第15.1条(a)、(b)および(d)によって必要とされる情報に関連しています。DSAが発効する前の2023年上半期を最新のレポートが扱っているため、まだ完全なデータセットが含まれていないことに注意してください。

当社は、2023年上半期の透明性レポートで扱われていない側面に関するいくつかの追加情報を以下に提供します。

コンテンツモデレーション(第15.1条(c)及び(e)、第42.2項)

Snapchatのすべてのコンテンツは、コミュニティガイドライン利用規約、およびサポート用語、ガイドライン、説明者を遵守する必要があります。 プロアクティブな検出メカニズムおよび違法または違反コンテンツまたはアカウントのレポートがレビューを促し、その時点で、当社のツールシステムはリクエストを処理し、関連するメタデータを収集し、効果的かつ効率的なレビュー作業を促進するように設計された構造化されたユーザーインターフェイスを介して、当社のモデレーションチームに関連コンテンツをルーティングします。当社のモデレーションチームが、人によるレビューまたは自動化された手段のいずれかによって、ユーザーが当社の規約に違反していると判断した場合、当社は、Snapchatのモデレーション、執行、および不服申し立てに関する説明で説明されているとおり、問題のあるコンテンツまたはアカウントを削除し、該当するアカウントの閲覧を停止または制限し、および/または法執行機関に通知する場合があります。コミュニティガイドライン違反で当社の安全チームによってアカウントがロックされているユーザーは、ロックされたアカウントの訴求を提出することができ、特定のコンテンツ執行に訴えることができます

自動化されたコンテンツモデレートツール

公共コンテンツの表面では、コンテンツは一般的に自動モデレートとヒューマンレビューの両方を経て、幅広いオーディエンスに配信されます。自動化ツールについては、次のようなものがあります。

  • 機械学習を使用して違法および違反コンテンツのプロアクティブ検出、

  • ハッシュマッチングツール(PhotoDNAやGoogleのCSAI Matchなど)、

  • 絵文字を含む、特定され定期的に更新される乱用的なキーワードのリストに基づいてコンテンツを拒否するための乱用的な言語検出。

最新の透明性レポート(2023年上半期)の期間中、これらの自動化システムに関する正式な指標/エラー率を照合する必要はありませんでした。しかし、当社はこれらのシステムを定期的に監視し、人間の節制の決定は定期的に評価されます。


人間のモデレーション

当社のコンテンツモデレーションチームは世界中で活動しており、Snapchatユーザーを24/7安全に保つことができます。以下は、2023年8月現在のモデレーターの専門言語別(複数の言語を専門とするモデレーターがいることに注意)人的モデレーションリソースの内訳です。

EU / 欧州連合の透明性ページへようこそ。こちらでは、EUデジタルサービス法(DSA)、視聴覚メディアサービス指令(AVMSD)、オランダメディア法(DMA)で義務付けられたEUに特有の情報を掲載しています。

毎月の平均アクティブ受信者 

2023年8月1日現在、EU域内のSnapchatアプリの月間アクティブ受信者(「AMAR」)は、1億200万人です。 これは、過去6か月間を平均すると、EU内にいる1.02億人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。

この数字は加盟国によって次のように分類されます。

EU / 欧州連合の透明性ページへようこそ。こちらでは、EUデジタルサービス法(DSA)、視聴覚メディアサービス指令(AVMSD)、オランダメディア法(DMA)で義務付けられたEUに特有の情報を掲載しています。

毎月の平均アクティブ受信者 

2023年8月1日現在、EU域内のSnapchatアプリの月間アクティブ受信者(「AMAR」)は、1億200万人です。 これは、過去6か月間を平均すると、EU内にいる1.02億人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。

この数字は加盟国によって次のように分類されます。