Privacy, Safety, and Policy Hub
EU / 欧州連合
2024年1月1日~2024年6月30日

リリース日:

2024年10月25日

更新日:

2024年12月17日

デジタルサービス法(DSA)、オーディオビジュアル・メディア・サービス指令(AVMSD)、オランダメディア法(DMA)、およびテロリズム・コンテンツ・オンライン規制(TCO)により要求されるEU固有の情報を公表する、欧州連合(EU)の透明性のページへようこそ。これらの透明性レポートの最新版は、en-USロケールでご覧いただけます。

法定代理人 

Snap Group Limitedは、DSAの目的でSnap B.Vを法務担当者に任命しました。DSAについてはdsa-enquiries [at] snapchat.com、AVMSDおよびDMAについては vsp-enquiries [at] snapchat.com、TCOについてはtco-enquiries [at] snapchat.comの担当者に、[こちら] のサポートサイト、または以下からお問い合わせください。

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

法執行機関の方は、こちらに記載されている手順でお問い合わせください。

お問い合わせは英語かオランダ語でお願いします。

規制当局

DSAの場合、当社は欧州委員会とオランダ消費者市場局(ACM)によって規制されています。AVMSDとDMAについては、オランダメディア局(CvdM)の規制を受けています。TCOは、オンラインテロリストコンテンツおよび児童性的虐待資料(ATKM)防止のためのオランダ当局によって規制されています。

DSA透明性レポート

最終更新日:2024年10月25日

当社は、欧州連合(EU)のデジタルサービス法(規制(EU)2022/2065)(以下「DSA」)の第15条、24条、および42条に規定された透明性報告要件に従って、Snapchatに対する当社のコンテンツモデレーションへの取り組みに関する本報告書を公表します。特に明記されている場合を除き、本報告書に含まれる情報は、2024年1月1日から2024年6月30日まで(2024年上半期)の報告期間におけるものであり、DSAによって規制されているSnapchatの機能に関するコンテンツモデレーションを対象としています。

当社は、継続的に報告の改善に取り組んでいます。この報告期間(2024年上半期)では、コンテンツモデレーションの取り組みをより深く理解できるよう、より差別化された新しい表を使用して、報告書の構成を変更しました。

1. 毎月の平均アクティブ受信者
(DSA第24条2項および第42条3項)


2024年10月1日時点で、EU内のSnapchatアプリのアクティブな受信者数(「AMAR」)は月平均で9,290万人です。これは、2024年9月30日までの過去6か月間を平均すると、EU内にいる9,290万人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。

この数字は加盟国によって次のように分類されます。

これらの数値は、現在のDSA要件を満たすために計算され、DSA目的にのみ依存する必要があります。当社は、内部ポリシー、規制当局のガイダンス、テクノロジーの変化に対応し、この数値の算出方法を経時的に変更しており、数値は期間間の比較を目的としたものではありません。また、この算出方法は当社が他の目的で公表している他のアクティブユーザーの数値の算出に使用している方法とは異なる場合があります。

2. 加盟国当局の要請
(DSA第15.1条(a))
a) 違法なコンテンツに対する措置命令


この報告期間(2024年上半期)中、DSA第9条に従って発行されたものを含め、EU加盟国当局から具体的に特定された違法コンテンツに対する措置は命令はゼロ(0)件でした。

この数がゼロ(0)であるため、関連する違法コンテンツまたは命令を行った加盟国ごとの内訳、あるいは受領確認や命令の発効に要した時間の中央値を出すことはできません。

b) 情報提供命令


この報告期間(2024年上半期)中、DSA第10条に従って発行されたものを含め、EU加盟国とEU当局から以下のユーザーデータの開示命令を受けました。


これらの情報提供命令の受領を関連当局に通知するまでの時間の中央値は0分で、受領確認の自動応答を行っています。

これらの情報提供命令に対応するまでの期間の中央値は、約7日間でした。この指標は、Snapが命令を受領してから、問題が完全に解決したとSnapが判断するまでの期間を反映したものであり、個々のケースでは、命令を処理するために必要なSnapからの説明要請に対する加盟国当局の対応速度に一部依存する場合があります。

注意:この情報は一般的に入手できないため、関連する違法コンテンツの種類別に分類された情報を提供する上記の命令の内訳を提供することはありません。

3. コンテンツモデレーション


Snapchat上のすべてのコンテンツは、コミュニティガイドライン利用規約に準拠していなければなりません。特定のコンテンツは、追加のガイドラインおよびポリシーを遵守する必要があります。例えば、当社の公共放送上でより幅広いオーディエンスにアルゴリズムによるおすすめを行うために提出されたコンテンツは、当社のおすすめの対象コンテンツガイドラインに定める追加のより高い基準を満たしている必要があり、広告も当社の広告ポリシーを遵守したものでなければなりません。

当社は、テクノロジーおよび人間による審査を行い、これらのポリシーを施行します。また、Snapchatユーザーが違法コンテンツや行為などの違反を、アプリ内または当社のウェブサイトから直接報告できる仕組みも提供しています。事前の検知メカニズムと報告が審査を促し、自動化ツールや人間のモデレーターを組み合わせて、当社のポリシーに従って適切な措置を講じます。

2024年上半期の公共上のコンテンツモデレーションについて、以下に詳細情報を示します。

a) DSA第16条に従って提出された通知
(DSA第15条1項(b))

DSA第16条に従い、Snapは、ユーザーおよび非ユーザーが違法コンテンツと思われる情報の特定の項目がSnapchat上に存在することを、Snapに通知できる仕組みを導入しています。これを行うには、Snapchatアプリまたは当社のウェブサイトで、特定のコンテンツまたはアカウントを報告する必要があります。

報告期間(2024年上半期)中、EUのDSA第16条に従って提出された以下の通知を受領しました。


以下では、これらの通報が処理された方法、すなわち人間によるレビューを含むプロセスによるものか、あるいは自動化された手段のみによるものかを反映した内訳を示しています。

アプリ内または当社のウェブサイトを通じて通報を提出する際、報告者は、当社のコミュニティガイドラインに記載された違反のカテゴリ(ヘイトスピーチ、薬物使用や販売など)を反映したオプションのメニューから、特定の報告理由を選択することができます。当社のコミュニティガイドラインは、EUで違法とされているコンテンツや活動を禁止しているため、当社の報告理由には、EUでの違法コンテンツの特定のカテゴリをほぼ反映しています。ただし、報告するコンテンツまたはアカウントが、当社の報告メニューで特に言及されていない理由で違法であるとEUの報告者が判断した場合、その報告者は「その他の違法なコンテンツ」として報告することができ、報告するコンテンツやアカウントが違法であると考える理由を説明する機会が与えられます。

審査の結果、報告されたコンテンツまたはアカウントが当社のコミュニティガイドラインに違反していると当社が判断した場合(違法の理由を含む)、Snapchatのモデレーション、強制執行、および不服申し立てで詳しく説明されているように、(i) 違反コンテンツを削除し、(ii) 該当するアカウント所有者に対して警告して当該アカウントに対するストライキを適用し、および/または (iii) 該当するアカウントをロックする場合があります。

2024年上半期、当社はEUのDSA第16条に従って提出された通報を受けて、以下の強制措置を行いました。

2024年上半期、当社が行った「その他の違法なコンテンツ」に関するすべてのレポートは、当社のコミュニティガイドラインが関連するコンテンツまたはアクティビティを禁止しているため、最終的に当社のコミュニティガイドラインに基づいて施行されました。したがって、これらの強制執行を、上記の表のコミュニティガイドライン違反の該当カテゴリに分類しました。

上記の強制執行に加え、当社は、その他の該当するSnapポリシーおよびガイドラインに従って、当社に通知されたコンテンツに対して措置を講じる場合があります。

  • 当社の公共放送上のコンテンツに関して、報告されたコンテンツが当社のおすすめの対象コンテンツガイドラインの高度な基準を満たしていないと当社が判断した場合、アルゴリズムによるおすすめの対象コンテンツを拒否したり(コンテンツが当社の基準を満たしていない場合)、コンテンツの配信を制限してセンシティブなオーディエンスを除外したり(コンテンツは当社のおすすめの対象基準を満たしているものの、その他の点でセンシティブまたは示唆的な場合)する可能性があります。

2024年上半期、当社はおすすめの対象コンテンツガイドラインに従い、EUで報告されたSnapchatの公共放送上のコンテンツに関して、以下の措置を講じました。

  • 報告された広告が当社の広告ポリシーに違反していると当社が判断した場合、審査のうえ、削除する場合があります。


2024年上半期、当社はEUで報告された広告に関して、以下の措置を講じました。


b) Snap独自の取り組みで行われたコンテンツモデレーション
(第15条1項(c))


DSA第16条に従って提出された通知の審査のほか、Snapは、独自の裁量でSnapchatの公共(Spotlight、Discoverなど)上のコンテンツをモデレートします。以下では、自動化ツールの使用、コンテンツモデレーションの担当者にトレーニングおよび支援を行うための措置、これらの積極的なコンテンツモデレーションの取り組みの結果として課された制限の数や種類など、Snap独自の取り組みで行われたコンテンツモデレーションに関する情報を提供します。


  • Snapが独自に行うモデレーションにおける自動化ツールの使用


当社は、自動化ツールを導入して、当社の公共コンテンツ上の規約およびポリシーの違反を事前に検出し、場合によっては法的措置を行います。これには、ハッシュマッチングツール(PhotoDNAやGoogle CSAI Matchを含む)、暴力的な言葉の検出モデル(定期的に更新される暴力的なキーワードや絵文字のリストに基づいてコンテンツを検出して拒否)、人工知能/機械学習技術が含まれます。当社の自動化ツールは、当社のコミュニティガイドライン(特に違法コンテンツを禁止する)、および該当する場合はおすすめの対象コンテンツガイドラインおよび広告ポリシーの違反を検出するように設計されています。


2024年上半期、事前の検出はすべて自動ツールを使用して行われました。当社の自動化ツールは、当社のポリシーへの違反の可能性を検出した場合、当社のポリシーに従って自動的に措置を講じるか、人間による審査のためのタスクを作成します。このプロセスの結果として課された制限の数と種類を以下に示します。


  • Snapの独自の取り組みによって課された制限の数と種類


2024年上半期、Snapは、自動化ツールを使用して当社のコミュニティガイドラインの違反(EUおよび加盟国の法律に基づく違法コンテンツおよび行為に相当する違反を含む)を事前に検出し、以下の強制措置を講じました。

さらに2024年上半期、当社の公共放送上のコンテンツに関して、自動化ツールを使用しておすすめの対象コンテンツガイドラインの違反をSnapchatで事前に検出した後、以下の措置を講じました。

* 当社のおすすめの対象コンテンツガイドラインに明記されているように、おすすめの対象コンテンツガイドラインに繰り返しまたは著しく違反したアカウントは、一時的または永久に、当社の公共放送上のおすすめの対象から外される場合があります。積極的なモデレーションの取り組みのもと、当社はこの措置を適用します。

さらに2024年上半期、自動化ツールを使用して広告ポリシーの違反をSnapchatで事前に検出した後、以下の措置を講じました。

  • コンテンツモデレーション担当者へのトレーニングおよび支援を行うために講じられた措置措置


当社のコンテンツモデレーションチームは、Snapchatコミュニティを保護するために、当社のコンテンツモデレーションポリシーを適用しています。トレーニングは複数週間にわたって行われます。新しいチームメンバーはSnapのポリシー、ツール、およびエスカレーション手順について教育を受けます。当社のモデレーションチームは、特にポリシー境界線やコンテキスト依存のケースに遭遇した場合、ワークフローに関連するリフレッシュトレーニングに定期的に参加します。また、すべてのモデレーターが最新で、すべての更新されたポリシーに準拠していることを確認するために、スキルアッププログラム、認定セッション、およびクイズを実行します。 最後に、現在のイベントに基づいて緊急のコンテンツトレンドが浮上した場合、当社はポリシーの明確化を迅速に発信し、チームがSnapのポリシーに従って対応できるようにします。


当社は、コンテンツモデレーションチームに、現場のウェルネスサポートやメンタルヘルスサービスへの簡単なアクセスなど、重要なサポートとリソースを提供しています。

c) Snapの社内苦情処理(不服申し立て)システムを通じて受けた苦情
(第15条1項(d))


コミュニティガイドライン違反(違法なコンテンツやアクティビティを含む)で当社の安全チームによってアカウントがロックされているユーザーは、ロックされたアカウントの不服申し立てを提出することができます。ユーザーは、特定のコンテンツモデレーションの決定に不服申し立てを行うこともできます。

報告期間(2024年上半期)中、Snapは、EU内の社内苦情処理システムを介して提出された以下の不服申し立て(アカウントロックとコンテンツレベルのモデレーションの決定に対する不服申し立てを含む)を処理しました。

d) コンテンツモデレーションを目的とした自動化手段の使用
(第15条1項(e)および第42条2項(c))

  • 定性的な説明と目的


第3条(b)で説明されているように、当社は、自動化ツールを導入して、当社の公共コンテンツ上の規約およびポリシーの違反を事前に検出し、場合によっては法的措置を行います。これには、ハッシュマッチングツール(PhotoDNAやGoogle CSAI Matchを含む)、暴力的な言葉の検出モデル(定期的に更新される暴力的なキーワードや絵文字のリストに基づいてコンテンツを検出して拒否)、人工知能/機械学習技術が含まれます。当社の自動化ツールは、当社のコミュニティガイドライン(特に違法コンテンツを禁止する)、および該当する場合はおすすめの対象コンテンツガイドラインおよび広告ポリシーの違反を検出するように設計されています。

当社の自動化ツールは、当社のポリシーへの違反の可能性を検出した場合、当社のポリシーに従って自動的に措置を講じるか、人間による審査のためのタスクを作成します。

  • 加盟国別の精度率およびエラー率の指標


当社は、自動化ツールによって処理されたタスクのランダムサンプルを当社の公共コンテンツ上で選択し、人間のモデレーションチームによる再審査のために提出することで、自動化モデレーションツールの精度を監視しています。精度率とは、これらのランダムサンプルのうち、再審査時に人間のモデレーターが支持したタスクの割合です。エラー率とは、100%と上記で計算された精度率との差です。

サンプリングによると、2024年上半期には、すべての違反カテゴリに使用された自動化手段の精度率は約93%で、エラー率は約7%でした。

当社は通常、Snapchatでモデレートするコンテンツの言語を追跡しないため、加盟国の公用語ごとの自動モデレーションツールの精度率やエラー率の内訳を提供することはできません。この情報の代用として、各加盟国からの自動でモデレートされたコンテンツの精度率とエラー率の内訳を以下に示します。

  • セーフガード


当社は、自動モデレーションツールが基本的人権に及ぼす潜在的な影響に留意しており、その影響を最小限に抑えるためのセーフガードを導入しています。

当社の自動コンテンツモデレーションツールは、Snapchatにデプロイされる前にテストされています。モデルはパフォーマンスをオフラインでテストされ、A/Bテストを通じてデプロイされ、完全に生産段階に入る前にその機能が適切であるかを確認されます。当社は、リリース前の品質保証(QA)レビュー、リリース時のレビュー、部分的(段階的)なロールアウト中の継続的な精度

自動化ツールのリリース後、当社はそれらのパフォーマンスと精度を継続的に評価し、必要に応じて調整を行います。このプロセスでは、人間のモデレーターによる自動化タスクのサンプルの再審査を行い、精度を向上させるための調整が必要なモデルを特定します。また、毎日ランダムに選んだパブリックストーリーを通じて、Snapchatにおける特定の危害の蔓延状況を監視し、この情報を活用してさらなる改善点を見極めます。

当社のポリシーとシステムは、自動化ツールによるものも含め、一貫した公正な執行を促進します。また、Snapchatユーザーは、個々のSnapchatユーザーの権利を保護しながらコミュニティの利益を保護することを目的とした通知とアピールプロセスを通じて、執行結果に異議を唱える機会を提供します。

当社は、精度を向上させ、ポリシーの一貫した公正な施行をサポートするために、自動化されたコンテンツモデレーションツールを継続的に改善するよう努めています。

e) 第21条の裁判外紛争解決機関に提出された紛争
(第24条1項(a))

報告期間(2024年上半期)に、DSA第21条に従って正式に認定された裁判外紛争解決機関に対して提出された紛争の件数はゼロ(0)であり、結果や完了時間の中央値、Snapが裁判外紛争解決機関の決定を実施した紛争の割合を反映した内訳を提供することはできません。

なお、2024年上半期に、DSA第21条に基づく裁判外紛争解決機関としての認定を求める機関に提出された紛争の通知2件を受領しました。これらの紛争の通知を送信した機関が当社の要請に応じて認定状況を確認することができなかったため、当社はこれらの紛争を上記のカウントには含めませんでした。

f) 第23条に基づいて課された停止
(第24条1項(b))
  • 第23条1項に基づく停止:明らかに違法なコンテンツを頻繁に提供するアカウントの停止

Snapchatのモデレーション、強制執行、および不服申し立てで詳しく説明されているように、主に当社のコミュニティガイドラインに違反するために使用されていると当社が判断したアカウント(明らかな違法コンテンツの提供を含む)、ならびに重大な損害を与えるアカウントは、直ちに無効になります。当社のコミュニティガイドラインに違反するその他の事項について、Snap は一般的に以下の 3 つの部分からなる実施プロセスを適用します。

  • ステップ1:違反コンテンツを削除します。

  • ステップ2:Snapchatユーザーは、コミュニティガイドラインに違反したこと、コンテンツが削除されたこと、違反が繰り返された場合はアカウントが無効化されることを含む追加の強制措置が取られることを示す通知を受け取ります。

  • ステップ3:当社のチームはSnapchatユーザーのアカウントに対してストライクを記録します。

Snapchatの公開コンテンツまたはアクティビティに関連して、2024年上半期にEU内のアカウントに課されたストライキ(警告など)やロックの数に関する情報は、上記の第3項(a)および3項(b)に示されています。

  • 第23条2項に基づく停止:明らかに根拠のない通知または苦情を頻繁に提出する個人、団体、申立人からの通知や苦情の処理の停止

「明らかに根拠のない」通知や苦情の社内定義、およびそのような通知や苦情が頻繁に提出されていると当社が判断する社内基準を適用すると、DSA第23条2項に従って2024年上半期に行われた通知および苦情の処理停止件数は、以下のとおりです。

4. 当社のコンテンツモデレーションチームに関する情報
a) 加盟国の公用語によって分類された、DSA第16条、20条、および22条の遵守を含む、コンテンツモデレーションに特化した人材
(第42条2項(a))


当社のコンテンツモデレーションチームは世界中で活動しており、Snapchatユーザーを24時間毎日安全に保つことができます。以下は、2024年6月30日在のモデレーターの専門言語別(複数の言語を専門とするモデレーターがいることに注意)人的モデレーションリソースの内訳です。

上記の表には、2024年6月30日現在、EU加盟国の公用語をサポートするコンテンツのモデレーションに特化したすべての人材が含まれています。追加の言語サポートが必要な場合は、翻訳サービスを利用します。

b) コンテンツモデレーターの資格と言語に関する専門知識、トレーニングおよびサポート
(第42条2項(b))


モデレーターは、言語要件(必要に応じて)を含む標準的な職務記述書を使用して募集します。 言語要件は、候補者はその言語に流暢な文章や会話の能力を発揮し、エントリーレベルのポジションで少なくとも1年間の実務経験がある必要があると述べています。 候補者は、考慮されるためには、学歴および背景の要件を満たしている必要があります。また、候補者は、サポートするコンテンツモデレーションの国または地域の現在のイベントを理解していることを確認する必要があります。 

DSA第15条(1)(c)、および「コンテンツモデレーションの担当者にトレーニングおよび支援を行うための措置」と題された最後のサブセクションの第3項(b)で別途定められている、Snapがコンテンツモデレーターに提供するトレーニングとサポートに関する情報については、上記をご覧ください。

児童の性的搾取と虐待(CSEA)メディアスキャンレポート


背景

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。


当社は、法律に従って、PhotoDNAロバストハッシュ一致やGoogleのChild Sexual Abuse Imagery(CSAI)を使用して、児童の性的虐待に関する既知の違法な画像や動画を特定・報告し、全米行方不明・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。


レポート

以下のデータは、ユーザーのカメラロールからSnapchatにアップロードされたメディアを、PhotoDNAおよび/またはCSAI Matchを使用して積極的にスキャンした結果に基づいています。

児童の性的搾取を阻止することは最優先事項です。Snapはこのような行為に多大なリソースを割いており、そのような行為に対してゼロトレランスを持っています。 CSE申し立ての審査には特別な訓練が必要であり、その内容の生々しさゆえに、これらの審査を担当する捜査官のチームは限られています。 2023年秋、Snapは特定のCSE執行の一貫性に影響を与えるポリシー変更を実施し、エージェントの再トレーニングと厳格な品質保証を通じてこれらの矛盾に対処しました。 次回の透明性レポートでは、CSE申し立てへの対応時間の改善と、初回強制執行の精度向上に向けた進捗が明らかになると期待しています。

コンテンツモデレーションの安全対策

CSEAメディアスキャンに適用される安全対策は、DSAレポートの上記の「コンテンツモデレーションの安全対策」セクションに定められています。


欧州連合テロリストコンテンツのオンライン透明性レポート

公開日:2024年6月17日

最終更新日:2024年
6月17日

この透明性レポートは、欧州議会およびEU理事会規則2021/784の第7条(2)および第7条(3)に従って公開され、オンライン上のテロリストコンテンツの拡散に対処しています。2023年1月1日~12月31日の報告期間を対象としています。


一般情報
  • 第7条(3)(a):テロリストコンテンツの特定および削除、またはアクセスの無効化に関するホスティングサービスプロバイダの措置に関する情報

  • 第7条(3)(b):特に自動化ツールが使用された場合に、テロリストコンテンツであるとみなされたために過去に削除されたまたはアクセスが無効化されたコンテンツがオンライン上に再出現した場合に対処するための、ホスティングサービスプロバイダーの措置に関する情報


テロリスト、テロ組織、暴力的過激派は、Snapchatの使用を禁止されています。テロリズムまたはその他の暴力的犯罪行為を擁護、促進、称賛、助長するコンテンツは、当社のコミュニティガイドラインで禁止されています。ユーザーは、アプリ内報告メニューおよびサポートサイトから、当社のコミュニティガイドラインに違反するコンテンツを報告することができます。また、事前検知を使用して、SpotlightやDiscoverなどの公共上で違反コンテンツを特定しようとします。


違反コンテンツの認識方法に関わらず、当社のトラスト&セーフティチームは、自動化と人間のモデレーションを組み合わせて、特定されたコンテンツを迅速に確認し、強制執行の決定を下します。強制執行には、コンテンツの削除、違反アカウントの警告またはロック、および必要があれば当該アカウントの法執行機関への通報などが含まれます。テロリストやその他の暴力的過激派のコンテンツがSnapchat上に再出現するのを防ぐため、法執行機関との協力に加え、違反アカウントに関連するデバイスをブロックし、ユーザーが別のSnapchatアカウントを作成できないようにする措置を講じています。


テロリストのコンテンツの特定および削除に関する当社の措置についての詳細は、憎しみに満ちたコンテンツ、テロリズム、暴力的過激主義およびモデレーション、強制執行、不服申し立てに関する説明をご覧ください。



報告と強制執行
  • 第7条(3)(c):削除命令または特定の措置によって削除された、またはアクセスが無効化されたテロリストコンテンツのアイテムの数、および第3条(7)の第1段落と第3条(8)の第1段落に従ってコンテンツが削除されなかった、またはアクセスが無効化されなかった削除命令の件数とその理由


報告期間中、Snapは削除命令を受けず、規制第5条に基づく具体的な措置を求められることもありませんでした。したがって、規制に基づく強制措置を講じる必要はありませんでした。


次の表は、テロリズムや暴力的過激主義のコンテンツに関するコミュニティガイドラインに違反したコンテンツやアカウントに対して、EUおよび世界各地でユーザーからの報告や事前検出に基づいて行われた強制措置について説明しています

法執行の不服申し立て
  • 第7条(3)(d):第10条に従ってホスティングサービスプロバイダーが処理した苦情の件数と結果

  • 第7条(3)(g):コンテンツプロバイダーからの苦情を受けて、ホスティングサービスプロバイダーがコンテンツまたはコンテンツへのアクセスを復帰したケースの件数


上記に記載されている報告期間中に、規制に基づく強制措置を講じなかったため、規制第10条に基づく苦情への対応や、関連する復帰は行われませんでした。


次の表には、EUおよび世界各地における、当社のコミュニティガイドラインに基づいて施行された、テロリストおよび暴力的過激派のコンテンツに対する不服申し立ておよび復帰に関する情報が含まれています。

司法手続と不服申し立て
  • 第7条(3)(e):ホスティングサービスプロバイダーによって行われた行政手続きまたは司法審査手続きの件数と結果

  • 第7条(3)(f):行政手続きまたは司法審査手続きの結果、ホスティングサービスプロバイダーがコンテンツを復元またはそれらにアクセスするよう要求されたケースの件数


上記に記載されているように、報告期間中に規制に基づく強制措置を講じなかったため、関連する行政手続きまたは司法審査手続きはなく、そのような手続きの結果、コンテンツを復元する必要もありませんでした。

DSAリスク評価

このレポートは、規制(EU)2022/2065の第34条および35条に基づくSnapの義務を遵守するために作成されたもので、Snapchatのオンラインプラットフォームの設計、機能、使用に起因するシステムリスクの評価結果、それらのリスクを評価するために使用された方法論、およびそれらのリスクに対処するために実施された軽減策を提供します。


DSAリスクおよび軽減策評価レポート | Snapchat | 2023年8月 (PDF)


DSA監査および監査実施

これらのレポートは、規制 (EU) 2022/2065の第37条に基づくSnapの義務を遵守するために作成されたもので、以下の内容を提供します。 (i) Snapが規制 (EU) 2022/2065の第Ⅲ章に定められた義務を遵守しているかどうかに関する独立監査の結果、および (ii) その独立監査からの運用上の推奨事項を実施するために講じられた対策。

DSA独立監査レポート | Snapchat | 2024年8月 (PDF)

DSA監査実施レポート | Snapchat | 2024年9月 (PDF)



EUVSP行動規範

Snapは、第1条(1)(aa)AVMSDに基づく「動画共有プラットフォームサービス」(「VSP」)プロバイダーです。本行動規範(「規範」)は、オランダメディア法(「DMA」)および指令(EU)2010/13(指令(EU)2018/1808(「視聴覚メディアサービス指令」または「AVMSD」)に基づくVSPとしての義務をSnapがどのように遵守しているかを説明するために作成されました。本規範は、欧州連合および欧州経済領域(EEA)全体で適用されます。

EUVSP行動規範|Snapchat|2024年12月(PDF)