EU / 欧州連合
最終更新:2024年4月25日

EU / 欧州連合の透明性ページへようこそ。こちらでは、デジタルサービス法(DSA)、視聴覚メディアサービス指令(AVMSD)、オランダメディア法(DMA)で義務付けられたEUに特有の情報を掲載しています。これらの透明性レポートの最新版は、en-USロケールでご覧いただけます。

法定代理人 

Snap Group Limitedは、DSAの目的でSnap B.Vを法務担当者に任命しました。DSAについてはdsa-enquiries [at] snapchat.com、AVMSDおよびDMAについては vsp-enquiries [at] snapchat.comの担当者に、[こちら] のサポートサイト、または以下からお問い合わせください。

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

法執行機関の方は、こちらに記載されている手順でお問い合わせください。

規制当局

DSAの場合、当社は欧州委員会とオランダ消費者市場局(ACM)によって規制されています。AVMSDとDMAについては、オランダメディア局(CvdM)の規制を受けています。

DSA透明性レポート

Snapは、DSAの第15条、第24条、第42条により、「オンラインプラットフォーム」と見なされるSnapchatのサービス(Spotlight、For You、Public Profiles、Maps、Lenses、Advertisingなど)について、Snapのコンテンツモデレーションに関する所定の情報を含む報告書を公表することが義務付けられています。このレポートは、2023年10月25日から6ヶ月ごとに発行する必要があります。

Snapは年に2回透明性レポートを発行し、Snapの安全対策と当社のプラットフォームで報告されるコンテンツの性質と量に関する洞察を提供します。2023年下半期(7月1日~12月31日)の最新レポートはこちらでご覧いただけます。デジタルサービス法に固有の指標はこちらでご覧いただけます。

毎月の平均アクティブ受信者 
(DSA第24条2項および第42条3項)

2023年12月31日現在、EU域内のSnapchatアプリの月間アクティブ受信者(「AMAR」)は、9090万人です。 これは、過去6か月間を平均すると、EU内にいる9090万人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。

この数字は加盟国によって次のように分類されます。

これらの数値は、現在のDSAルールを満たすために計算され、DSA目的にのみ依存する必要があります。当社は、内部ポリシー、規制当局のガイダンス、テクノロジーの変化に対応し、この数値の算出方法を経時的に変更しており、数値は期間間の比較を目的としたものではありません。また、この算出方法は当社が他の目的で公表している他のアクティブユーザーの数値の算出に使用している方法とは異なる場合があります。


加盟国の当局の要請
(DSA第15.1条(a))

削除要請 

この期間中、DSA第9条に基づくEU加盟国からの削除要請は0件ありました。 

情報提供要請 

この期間中、DSA第10条に基づきEU加盟国から以下の情報提供要請を受け取りました。

情報提供要請の受領を当局に通知するまでの所要時間の中央値は0分です。当社は、受領確認の自動応答を提供しています。情報提供要請が有効になるまでの所要時間の中央値は、約10日間です。この指標は、SnapがIRを受領してから、リクエストが完全に解決したとSnapが判断するまでの期間を反映します。場合によっては、このプロセスの長さは、リクエストを処理するために必要なSnapからの説明要請に対する法執行機関の対応速度に一部依存します。

コンテンツモデレーション 


Snapchatのすべてのコンテンツは、当社のコミュニティガイドライン利用規約、およびサポート用語、ガイドライン、説明者を遵守する必要があります。 プロアクティブな検出メカニズムおよび違法または違反コンテンツまたはアカウントのレポートがレビューを促し、その時点で、当社のツールシステムはリクエストを処理し、関連するメタデータを収集し、効果的かつ効率的なレビュー作業を促進するように設計された構造化されたユーザーインターフェイスを介して、当社のモデレーションチームに関連コンテンツをルーティングします。当社のモデレーションチームが、人によるレビューまたは自動化された手段のいずれかによって、ユーザーが当社の規約に違反していると判断した場合、当社は、Snapchatのモデレーション、執行、および不服申し立てに関する説明で説明されているとおり、問題のあるコンテンツまたはアカウントを削除し、該当するアカウントの閲覧を停止または制限し、および/または法執行機関に通知する場合があります。コミュニティガイドライン違反で当社の安全チームによってアカウントがロックされているユーザーは、ロックされたアカウントの訴求を提出することができ、特定のコンテンツ執行に訴えることができます。

コンテンツおよびアカウントの通知(DSA第15.1条(b))

Snapは、ユーザーおよび非ユーザーが、DSA第16条に基づき違法とみなされるものを含め、プラットフォーム上の当社のコミュニティガイドラインおよび利用規約に違反するコンテンツおよびアカウントについて、Snapに通知できるメカニズムを導入しています。 これらの報告メカニズムは、アプリ自体(つまり、コンテンツから直接)および当社のウェブサイトで利用できます。

関連する期間中、EUでは以下のコンテンツおよびアカウントの通知を受け取りました。

2023年上半期には、自動化された手段だけで664,896件の通知を処理しました。これらはすべて、違法なコンテンツを取りまとめた当社のコミュニティガイドラインに反して施行されました。 

ユーザー生成コンテンツやアカウントに加えて、当社のプラットフォームポリシーに違反した場合には、広告を適宜修正します。以下は、EUで報告および削除された広告の合計です。 

トラステッドフラッガーの通知(第15.1条(b))

最新の透明性レポート(2023年上半期)の期間中、DSAの下で正式に任命されたトラステッドフラッガーはいませんでした。その結果、この期間にそのようなトラステッドフラッガーが提出した通知の数は、ゼロ(0)件でした。

積極的なコンテンツモデレーション(第15.1条(c))

関連する期間中、Snapは独自のイニシアチブでコンテンツモデレーションを行い、EU内で以下のコンテンツおよびアカウントに強制執行を行いました。

Snap独自のイニシアチブによるモデレーションの取り組みはすべて、人的または自動的機能を活用しました。公共コンテンツの表面では、コンテンツは一般的に自動モデレートとヒューマンレビューの両方を経て、幅広いオーディエンスに配信されます。自動化ツールについては、次のようなものがあります。

  • 機械学習を使用して違法および違反コンテンツのプロアクティブ検出、

  • ハッシュマッチングツール(PhotoDNAやGoogleのCSAI Matchなど)、

  • 絵文字を含む、特定され定期的に更新される暴力的なキーワードのリストに基づいて、コンテンツを拒否するための暴力的な言語の検出


アピール(第15.1条(d))

関連する期間中、Snapは社内苦情処理システムを通じて、EU内で以下のコンテンツおよびアカウントのアピールを処理しました。


* 児童の性的搾取を阻止することは最優先事項です。Snapはこのような行為に多大なリソースを割いており、そのような行為に対してゼロトレランスを持っています。 CSE申し立ての審査には特別な訓練が必要であり、その内容の生々しさゆえに、これらの審査を担当する捜査官のチームは限られています。 2023年秋、Snapは特定のCSE執行の一貫性に影響を与えるポリシー変更を実施し、エージェントの再トレーニングと厳格な品質保証を通じてこれらの矛盾に対処しました。 次回の透明性レポートでは、CSE申し立てへの対応時間の改善と、初回強制執行の精度向上に向けた進捗が明らかになると期待しています。

コンテンツモデレーションのための自動化された手段(第15条第1項(d))

公共コンテンツの表面では、コンテンツは一般的に自動モデレートとヒューマンレビューの両方を経て、幅広いオーディエンスに配信されます。自動化ツールについては、次のようなものがあります。

  • 機械学習を使用して違法および違反コンテンツのプロアクティブ検出、

  • ハッシュマッチングツール(PhotoDNAやGoogleのCSAI Matchなど)、

  • 絵文字を含む、特定され定期的に更新される乱用的なキーワードのリストに基づいてコンテンツを拒否するための乱用的な言語検出。


すべての危害に対する自動モデレーション技術の精度は約96.61%で、エラー率は約3.39%でした。


コンテンツモデレーションセーフガード(第15.1条(d))

当社は、表現の自由に対するリスクや、自動化されたモデレーターによるバイアスや、政府、政治的便秘、または組織的な個人を含む虐待的なレポートによって引き起こされる可能性のある、表現の自由に対するリスクや、まったくの無意味なほど、コンテンツモデレーションと関連するリスクがあることを認識しています。 Snapchatは、一般的に、特に当社の公共空間では、政治的または活動家向けのコンテンツの場所ではありません。 


しかしながら、これらのリスクから保護するために、Snapはテストとトレーニングを実施し、法執行機関や政府当局からのものを含め、違法または違反のコンテンツの報告を処理するための堅牢で一貫した手順を備えています。 当社は、コンテンツモデレーションアルゴリズムを継続的に評価し、進化させます。 表現の自由に対する潜在的な害を検出することは困難です。当社は重大な問題を認識していませんが、ユーザーが間違いが発生した場合に報告するための手段を提供します。 


当社のポリシーとシステムは、一貫した公正な執行を促進します。また、上記のように、Snapchatユーザーは、個々のSnapchatユーザーの権利を保護しながらコミュニティの利益を保護することを目的とした通知とアピールプロセスを通じて、執行結果に異議を唱える機会を提供します。

当社は、執行ポリシーとプロセスを改善するために継続的に努力し、Snapchatにおける有害で違法なコンテンツやアクティビティと戦うことで大きな進歩を遂げました。 これは、最新の透明性レポートに示されている当社の報告および執行の数字と、Snapchat全体の違反の発生率低下に反映されています。 


裁判外の和解(第24条1項(a))

最新の透明性レポートの期間(2023年下半期)において、DSAに基づき正式に任命された裁判外の紛争解決機関はありませんでした。その結果、この期間にこのような機関に提出された紛争件数は0件でした。また、和解の結果、和解に要した時間の中央値、および当該機関の決定を実施した紛争の割合を示すことはできません。



アカウントの一時停止(第24条1項(a))

2023年下半期には、第23条に基づくアカウント停止処分はありませんでした。SnapのTrust & Safetyチームは、ユーザーアカウントが頻繁に根拠のない通知や苦情を提出する可能性を制限するための手順を備えています。これらの手順には、重複したレポートの作成を制限することや、明らかに根拠のないレポートを頻繁に提出しているユーザーがそうし続けることを防ぐために電子メールフィルターを使用することが含まれます。Snapは、Snapchatのモデレーション、執行、およびアピール説明で説明されているように、アカウントに対して適切な執行措置を講じます。また、Snapのアカウントの執行のレベルに関する情報は、透明性レポート(H2 2023)で見つけることができます。そのような措置は引き続き見直され、反復されます。


司会者のリソース、専門知識、サポート(第42条2項)

当社のコンテンツモデレーションチームは世界中で活動しており、Snapchatユーザーを24/7安全に保つことができます。以下は、2023年12月31日在のモデレーターの専門言語別(複数の言語を専門とするモデレーターがいることに注意)人的モデレーションリソースの内訳です。

上記の表には、2023年12月31日時点でEU加盟国の言語をサポートするすべてのモデレーターが含まれています。追加の言語サポートが必要な場合は、翻訳サービスを利用します。

モデレーターは、言語要件(必要に応じて)を含む標準的な職務記述書を使用して募集します。 言語要件は、候補者はその言語に流暢な文章や会話の能力を発揮し、エントリーレベルのポジションで少なくとも1年間の実務経験がある必要があると述べています。 候補者は、考慮されるためには、学歴および背景の要件を満たしている必要があります。また、候補者は、サポートするコンテンツモデレーションの国または地域の現在のイベントを理解していることを確認する必要があります。

当社のモデレーションチームは、Snapchatコミュニティを保護するために当社のポリシーと執行措置を適用します。 トレーニングは複数週間にわたって行われます。新しいチームメンバーはSnapのポリシー、ツール、およびエスカレーション手順について教育を受けます。 トレーニング後、各モデレーターはコンテンツを確認する前に認定試験に合格する必要があります。 当社のモデレーションチームは、特にポリシー境界線やコンテキスト依存のケースに遭遇した場合、ワークフローに関連するリフレッシュトレーニングに定期的に参加します。 また、すべてのモデレーターが最新で、すべての更新されたポリシーに準拠していることを確認するために、スキルアッププログラム、認定セッション、およびクイズを実行します。 最後に、現在のイベントに基づいて緊急のコンテンツトレンドが浮上した場合、当社はポリシーの明確化を迅速に発信し、チームがSnapのポリシーに従って対応できるようにします。

当社は、Snapの「デジタルファーストレスポンダー」であるコンテンツモデレーションチームに、現場のウェルネスサポートやメンタルヘルスサービスへの簡単なアクセスなど、重要なサポートとリソースを提供しています。 

児童の性的搾取と虐待(CSEA)メディアスキャンレポート


背景

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。


当社は、法律に従って、PhotoDNAロバストハッシュ一致やGoogleのChild Sexual Abuse Imagery(CSAI)を使用して、児童の性的虐待に関する既知の違法な画像や動画を特定・報告し、全米行方不明・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。


レポート

以下のデータは、ユーザーのカメラロールからSnapchatにアップロードされたメディアを、PhotoDNAおよび/またはCSAI Matchを使用して積極的にスキャンした結果に基づいています。

児童の性的搾取を阻止することは最優先事項です。Snapはこのような行為に多大なリソースを割いており、そのような行為に対してゼロトレランスを持っています。 CSE申し立ての審査には特別な訓練が必要であり、その内容の生々しさゆえに、これらの審査を担当する捜査官のチームは限られています。 2023年秋、Snapは特定のCSE執行の一貫性に影響を与えるポリシー変更を実施し、エージェントの再トレーニングと厳格な品質保証を通じてこれらの矛盾に対処しました。 次回の透明性レポートでは、CSE申し立てへの対応時間の改善と、初回強制執行の精度向上に向けた進捗が明らかになると期待しています。

コンテンツモデレーションの安全対策

CSEAメディアスキャンに適用される安全対策は、DSAレポートの上記の「コンテンツモデレーションの安全対策」セクションに定められています。