EU / 欧州連合
最終更新:2024年2月7日

EU / 欧州連合の透明性ページへようこそ。こちらでは、EUデジタルサービス法(DSA)、視聴覚メディアサービス指令(AVMSD)、オランダメディア法(DMA)で義務付けられたEUに特有の情報を掲載しています。

毎月の平均アクティブ受信者 

2023年8月1日現在、EU域内のSnapchatアプリの月間アクティブ受信者(「AMAR」)は、1億200万人です。 これは、過去6か月間を平均すると、EU内にいる1.02億人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。

この数字は加盟国によって次のように分類されます。

これらの数値は、現在のDSAルールを満たすために計算され、DSA目的にのみ依存する必要があります。規制当局の指導や技術的な変化への対応を含め、この数値の算出方法は時間の経過とともに変更される可能性があります。また、この算出方法は当社が他の目的で公表している他のアクティブユーザーの数値の算出に使用している方法とは異なる場合があります。

法定代理人 

Snap Group Limitedは、Snap B.V.を法定代理人に任命しています。DSAについてはdsa-enquiries [at] snapchat.com、AVMSDおよびDMAについては vsp-enquiries [at] snapchat.comの担当者に、[こちら] のサポートサイト、または以下からお問い合わせください。

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

法執行機関の方は、こちらに記載されている手順でお問い合わせください。

規制当局

DSAの場合、当社は欧州委員会とオランダ消費者市場局(ACM)によって規制されています。

AVMSDとDMAについては、オランダメディア局(CvdM)の規制を受けています。

DSA透明性レポート

Snapは、DSAの第15条、第24条、第42条により、「オンラインプラットフォーム」と見なされるSnapchatのサービス(Spotlight、For You、Public Profiles、Maps、Lenses、Advertisingなど)について、Snapのコンテンツモデレーションに関する所定の情報を含む報告書を公表することが義務付けられています。このレポートは、2023年10月25日から6ヶ月ごとに発行する必要があります。

Snapは年に2回透明性レポートを発行し、Snapの安全対策と当社のプラットフォームで報告されるコンテンツの性質と量に関する洞察を提供します。2023年上半期(1月1日~6月30日)の最新レポートはこちらでご覧いただけます。このレポートには、次の情報が含まれます。

  • 情報およびコンテンツ削除要求を含む政府の要請、

  • 不正なコンテンツに関連して実行されたアクションと応答時間の中央値を含むコンテンツ違反、

  • 当社の内部苦情処理プロセスを通じて受領され、処理される控訴。

これらのセクションは、DSAの第15.1条(a)、(b)および(d)によって必要とされる情報に関連しています。DSAが発効する前の2023年上半期を最新のレポートが扱っているため、まだ完全なデータセットが含まれていないことに注意してください。

当社は、2023年上半期の透明性レポートで扱われていない側面に関するいくつかの追加情報を以下に提供します。

コンテンツモデレーション(第15.1条(c)及び(e)、第42.2項)

Snapchatのすべてのコンテンツは、コミュニティガイドライン利用規約、およびサポート用語、ガイドライン、説明者を遵守する必要があります。 プロアクティブな検出メカニズムおよび違法または違反コンテンツまたはアカウントのレポートがレビューを促し、その時点で、当社のツールシステムはリクエストを処理し、関連するメタデータを収集し、効果的かつ効率的なレビュー作業を促進するように設計された構造化されたユーザーインターフェイスを介して、当社のモデレーションチームに関連コンテンツをルーティングします。当社のモデレーションチームが、人によるレビューまたは自動化された手段のいずれかによって、ユーザーが当社の規約に違反していると判断した場合、当社は、Snapchatのモデレーション、執行、および不服申し立てに関する説明で説明されているとおり、問題のあるコンテンツまたはアカウントを削除し、該当するアカウントの閲覧を停止または制限し、および/または法執行機関に通知する場合があります。コミュニティガイドライン違反で当社の安全チームによってアカウントがロックされているユーザーは、ロックされたアカウントの訴求を提出することができ、特定のコンテンツ執行に訴えることができます

自動化されたコンテンツモデレートツール

公共コンテンツの表面では、コンテンツは一般的に自動モデレートとヒューマンレビューの両方を経て、幅広いオーディエンスに配信されます。自動化ツールについては、次のようなものがあります。

  • 機械学習を使用して違法および違反コンテンツのプロアクティブ検出、

  • ハッシュマッチングツール(PhotoDNAやGoogleのCSAI Matchなど)、

  • 絵文字を含む、特定され定期的に更新される乱用的なキーワードのリストに基づいてコンテンツを拒否するための乱用的な言語検出。

最新の透明性レポート(2023年上半期)の期間中、これらの自動化システムに関する正式な指標/エラー率を照合する必要はありませんでした。しかし、当社はこれらのシステムを定期的に監視し、人間の節制の決定は定期的に評価されます。


人間のモデレーション

当社のコンテンツモデレーションチームは世界中で活動しており、Snapchatユーザーを24/7安全に保つことができます。以下は、2023年8月現在のモデレーターの専門言語別(複数の言語を専門とするモデレーターがいることに注意)人的モデレーションリソースの内訳です。

上記の数字は、言語/国ごとの着信量の傾向や提出を確認するため、頻繁に変動します。 追加の言語サポートが必要な場合は、翻訳サービスを利用します。

モデレーターは、言語要件(必要に応じて)を含む標準的な職務記述書を使用して募集します。 言語要件は、候補者はその言語に流暢な文章や会話の能力を発揮し、エントリーレベルのポジションで少なくとも1年間の実務経験がある必要があると述べています。 候補者は、考慮されるためには、学歴および背景の要件を満たしている必要があります。 また、候補者は、サポートするコンテンツモデレーションの国または地域の現在のイベントを理解していることを確認する必要があります。 

当社のモデレーションチームは、Snapchatコミュニティを保護するために当社のポリシーと執行措置を適用します。 トレーニングは複数週間にわたって行われます。新しいチームメンバーはSnapのポリシー、ツール、およびエスカレーション手順について教育を受けます。 トレーニング後、各モデレーターはコンテンツを確認する前に認定試験に合格する必要があります。 当社のモデレーションチームは、特にポリシー境界線やコンテキスト依存のケースに遭遇した場合、ワークフローに関連するリフレッシュトレーニングに定期的に参加します。 また、すべてのモデレーターが最新で、すべての更新されたポリシーに準拠していることを確認するために、スキルアッププログラム、認定セッション、およびクイズを実行します。 最後に、現在のイベントに基づいて緊急のコンテンツトレンドが浮上した場合、当社はポリシーの明確化を迅速に発信し、チームがSnapのポリシーに従って対応できるようにします。

当社は、Snapの「デジタルファーストレスポンダー」であるコンテンツモデレーションチームに、現場のウェルネスサポートやメンタルヘルスサービスへの簡単なアクセスなど、重要なサポートとリソースを提供しています。 


コンテンツモデレーションの安全対策

当社は、表現の自由に対するリスクや、自動化されたモデレーターによるバイアスや、政府、政治的便秘、または組織的な個人を含む虐待的なレポートによって引き起こされる可能性のある、表現の自由に対するリスクや、まったくの無意味なほど、コンテンツモデレーションと関連するリスクがあることを認識しています。 Snapchatは、一般的に、特に当社の公共空間では、政治的または活動家向けのコンテンツの場所ではありません。 

しかしながら、これらのリスクから保護するために、Snapはテストとトレーニングを実施し、法執行機関や政府当局からのものを含め、違法または違反のコンテンツの報告を処理するための堅牢で一貫した手順を備えています。 当社は、コンテンツモデレーションアルゴリズムを継続的に評価し、進化させます。 表現の自由に対する潜在的な害を検出することは困難です。当社は重大な問題を認識していませんが、ユーザーが間違いが発生した場合に報告するための手段を提供します。 

当社のポリシーとシステムは、一貫した公正な執行を促進します。また、上記のように、Snapchatユーザーは、個々のSnapchatユーザーの権利を保護しながらコミュニティの利益を保護することを目的とした通知とアピールプロセスを通じて、執行結果に異議を唱える機会を提供します。

当社は、執行ポリシーとプロセスを改善するために継続的に努力し、Snapchatにおける有害で違法なコンテンツやアクティビティと戦うことで大きな進歩を遂げました。 これは、最新の透明性レポートに示されている当社の報告および執行の数字と、Snapchat全体の違反の発生率低下に反映されています。 


トラステッドフラッガーの通知(第15.1(b))

最新の透明性レポート(2023年H1)の期間中、DSAの下で正式に任命されたトラストフラッグは存在しませんでした。 その結果、この期間に、そのようなトラステッドフラッガーが提出した通知の数は、ゼロ(0)でした。


裁判所外紛争(第24.1(a))

最新の透明性レポート(H1 2023)の期間中、DSAの下で正式に任命された裁判外紛争解決機関は存在しませんでした。 その結果、この期間に、そのような機関に提出された紛争の数は、ゼロ(0)でした。


第23条(第24.1(b))に基づくアカウントの停止

最新の透明性レポート(H1 2023)の期間中、明らかに違法なコンテンツ、根拠のない通知、または根拠のない苦情を提供するために、DSA第23条に従ってアカウントを停止する要件はありませんでした。 その結果、そのような停止の数は、ゼロ(0)でした。 ただし、Snapは、Snapchatのモデレーション、執行、およびアピール説明)で説明されているように、アカウントに対して適切な執行措置を講じます。また、Snapのアカウントの執行のレベルに関する情報は、透明性レポート(H1 2023)で見つけることができます。