デジタルサービス法(DSA)、オーディオビジュアル・メディア・サービス指令(AVMSD)、オランダメディア法(DMA)、およびテロリズム・コンテンツ・オンライン規制(TCO)により要求されるEU固有の情報を公表する、欧州連合(EU)の透明性のページへようこそ。これらの透明性レポートの最新版は、en-USロケールでご覧いただけます。
Snap Group Limitedは、DSAの目的でSnap B.Vを法務担当者に任命しました。DSAについてはdsa-enquiries [at] snapchat.com、AVMSDおよびDMAについては vsp-enquiries [at] snapchat.com、TCOについてはtco-enquiries [at] snapchat.comの担当者に、[こちら] のサポートサイト、または以下からお問い合わせください。
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands
法執行機関の方は、こちらに記載されている手順でお問い合わせください。
お問い合わせは英語かオランダ語でお願いします。
DSAの場合、当社は欧州委員会とオランダ消費者市場局(ACM)によって規制されています。AVMSDとDMAについては、オランダメディア局(CvdM)の規制を受けています。TCOは、オンラインテロリストコンテンツおよび児童性的虐待資料(ATKM)防止のためのオランダ当局によって規制されています。
公開:2025年2月28日
最終更新:2025年4月23日(バージョン2.0)
報告サイクル:2024年7月1日~2024年12月31日
当社は、欧州連合(EU)のデジタルサービス法(規則(EU)2022/2065)(以下「DSA」)の第15条、第24条、第42条に規定されている透明性報告要件に従って本報告書を公表します。 特に記載されている場合を除き、本報告書に含まれる情報は、2024年7月1日~2024年12月31日(2024年下半期)の報告期間に関するものです。
2024年1月1日時点で、EU内のSnapchatアプリのアクティブな受信者数(「AMAR」)は月平均で9,370万人です。これは、2024年12月31日までの過去6か月間を平均すると、EU内にいる9,370万人の登録ユーザーが、少なくとも月に一度はSnapchatアプリを開いたことを意味します。
この数字は加盟国によって次のように分類されます。
これらの数値は、現在のDSA要件を満たすために計算され、DSA目的にのみ依存する必要があります。当社は、内部ポリシー、規制当局のガイダンス、テクノロジーの変化に対応し、この数値の算出方法を経時的に変更しており、数値は期間間の比較を目的としたものではありません。また、この算出方法は当社が他の目的で公表している他のアクティブユーザーの数値の算出に使用している方法とは異なる場合があります。
この報告期間(2024年下半期)中、DSA第9条に従って発行されたものを含め、EU加盟国当局から具体的に特定された違法コンテンツに対する措置は命令はゼロ(0)件でした。
この数がゼロ(0)であるため、関連する違法コンテンツまたは命令を行った加盟国ごとの内訳、あるいは受領確認や命令の発効に要した時間の中央値を出すことはできません。
この報告期間(2024年下半期)中、DSA第10条に従って発行されたものを含め、EU加盟国とEU当局から以下のユーザーデータの開示命令を受けました。
これらの情報提供命令の受領を関連当局に通知するまでの時間の中央値は0分で、受領確認の自動応答を行っています。
これらの情報提供命令に対応するまでの期間の中央値は、約12日間でした。この指標は、Snapが命令を受領してから、問題が完全に解決したとSnapが判断するまでの期間を反映したものであり、個々のケースでは、命令を処理するために必要なSnapからの説明要請に対する加盟国当局の対応速度に一部依存する場合があります。
注意:この情報は一般的に入手できないため、関連する違法コンテンツの種類別に分類された情報を提供する上記の命令の内訳を提供することはありません。
Snapchat上のすべてのコンテンツは、コミュニティガイドラインと利用規約に準拠していなければなりません。特定のコンテンツは、追加のガイドラインおよびポリシーを遵守する必要があります。例えば、当社の公共放送上でより幅広いオーディエンスにアルゴリズムによるおすすめを行うために提出されたコンテンツは、当社のおすすめの対象コンテンツガイドラインに記載された追加のより高い基準を満たしている必要があり、広告も当社の広告ポリシーを遵守したものでなければなりません。
当社は、テクノロジーおよび人間による審査を行い、これらのポリシーを施行します。ユーザーと非ユーザーが違法コンテンツや行為などの違反を、アプリ内または当社のウェブサイトから直接報告できる仕組みも提供しています。また、積極的な危害検出テクノロジーも使用しています。 事前の検知メカニズムと報告が審査を促し、自動化ツールや人間のモデレーターを組み合わせて、当社のポリシーに従って適切な措置を講じます。
2024年下半期のコンテンツモデレーションに関する詳細については、以下でご紹介します。
DSA第16条に従い、Snapは、ユーザーおよび非ユーザーが違法コンテンツと思われる情報の特定の項目がSnapchat上に存在することを、Snapに通知できる仕組みを導入しています。これを行うには、Snapchatアプリまたは当社のウェブサイトで、特定のコンテンツまたはアカウントを報告する必要があります。
アプリ内または当社のウェブサイトを通じて通報を提出する際、報告者は、当社のコミュニティガイドラインに記載された違反のカテゴリ(ヘイトスピーチ、薬物使用など)を反映したオプションのメニューから、特定の報告理由を選択することができます。当社のコミュニティガイドラインは、EUで違法とされているコンテンツや活動を禁止しているため、当社の報告理由には、EUでの違法コンテンツの特定のカテゴリをほぼ反映しています。ただし、報告するコンテンツまたはアカウントが、当社の報告メニューで特に言及されていない理由で違法であるとEUの報告者が判断した場合、その報告者は「その他の違法なコンテンツ」として報告することができ、報告するコンテンツやアカウントが違法であると考える理由を説明する機会が与えられます。
報告期間(2024年下半期)中、EUのDSA第16条に従って提出された以下の通知を受領しました。
以下では、これらの通報が処理された方法、すなわち人間によるレビューを含むプロセスによるものか、あるいは自動化された手段のみによるものかを反映した内訳を示しています。
審査の結果、報告されたコンテンツまたはアカウントが当社のコミュニティガイドラインに違反していると当社が判断した場合(違法の理由を含む)、Snapchatのモデレーション、強制執行、および不服申し立てで詳しく説明されているように、(i) 違反コンテンツを削除し、(ii) 該当するアカウント所有者に対して警告して当該アカウントに対するストライキを適用し、および/または (iii) 該当するアカウントをロックする場合があります。
2024年下半期、当社はEUのDSA第16条に従って提出された通報を受けて、以下の強制措置を行いました。
2024年下半期、当社が行った「その他の違法なコンテンツ」に関するすべてのレポートは、当社のコミュニティガイドラインが関連するコンテンツまたはアクティビティを禁止しているため、最終的に当社のコミュニティガイドラインに基づいて施行されました。したがって、これらの強制執行を、上記の表のコミュニティガイドライン違反の該当カテゴリに分類しました。
上記の強制執行に加え、当社は、その他の該当するSnapポリシーおよびガイドラインに従って、当社に通知されたコンテンツに対して措置を講じる場合があります。
公共放送上のコンテンツに関して、報告されたコンテンツがおすすめの対象コンテンツガイドラインの資格基準を満たしていないと当社が判断した場合、当社はアルゴリズムによるおすすめの対象コンテンツガイドラインを拒否するか、あるいは特定のオーディエンス(コンテンツが当社のおすすめの対象コンテンツガイドラインを満たしているが、その他の点でデリケートまたは暗示的な場合)を除外するためにコンテンツの配信を制限することがあります。
2024年下半期、当社はおすすめの対象コンテンツガイドラインに従い、EUで報告されたSnapchatの公共放送上のコンテンツに関して、以下の措置を講じました。
報告された広告が当社の広告ポリシーに違反していると当社が判断した場合、審査のうえ、削除する場合があります。
2024年下半期、当社はEUで報告された広告に関して以下の措置を講じました。
DSA第16条に基づいて提出された通知のレビューに加えて、Snapは自らの取り組みでコンテンツのモデレーションにも取り組んでいます。 以下では、自動化ツールの使用、コンテンツモデレーションの担当者にトレーニングおよび支援を行うための措置、これらの積極的なコンテンツモデレーションの取り組みの結果として課された制限の数や種類など、Snap独自の取り組みで行われたコンテンツモデレーションに関する情報を提供します。
Snapが独自に行うモデレーションにおける自動化ツールの使用
当社は、規約とポリシーの違反を積極的に検出し、場合によっては実施するために、自動化ツールを導入しています。 これらのツールには、ハッシュマッチングツール(PhotoDNAやGoogle CSAI Matchを含む)、GoogleコンテンツセーフティAPI、不正言語検出モデル(特定され定期的に更新された不正なキーワードや絵文字のリストに基づいてコンテンツを検出し拒否する)、人工知能、機械学習、大規模言語モデルを活用したテクノロジーが含まれます。 当社の自動化ツールは、当社のコミュニティガイドライン(特に違法コンテンツを禁止する)、および該当する場合はおすすめの対象コンテンツガイドラインおよび広告ポリシーの違反を検出するように設計されています。
2024年下半期、事前の検出はすべて自動ツールを利用して行われました。当社の自動化ツールは、当社のポリシーへの違反の可能性を検出した場合、当社のポリシーに従って自動的に措置を講じるか、人間による審査のためのタスクを作成します。このプロセスの結果として課された制限の数と種類を以下に示します。
Snapの独自の取り組みによって課された制限の数と種類
2024年下半期Snapは、コミュニティガイドラインの違反(EUおよび加盟国の法律に基づく違法コンテンツや活動に相当する違反を含む)を積極的に検出した後、以下の強制措置を講じました。
さらに2024年下半期、当社の公共放送上のコンテンツに関して、自動化ツールを使用しておすすめの対象コンテンツガイドラインの違反をSnapchatで事前に検出した後、以下の措置を講じました。
* 当社のおすすめの対象コンテンツガイドラインに明記されているように、おすすめの対象コンテンツガイドラインに繰り返しまたは著しく違反したアカウントは、一時的または永久に、当社の公共放送上のおすすめの対象から外される場合があります。積極的なモデレーションの取り組みのもと、当社はこの措置を適用します。
さらに2024年下半期、自動化ツールを使用して広告ポリシーの違反をSnapchatで事前に検出した後、以下の措置を講じました。
コンテンツモデレーション担当者へのトレーニングおよび支援を行うために講じられた措置措置
当社のコンテンツモデレーションチームは、Snapchatコミュニティを保護するために、当社のコンテンツモデレーションポリシーを適用しています。トレーニングは複数週間にわたって行われます。新しいチームメンバーはSnapのポリシー、ツール、およびエスカレーション手順について教育を受けます。当社のモデレーションチームは、特にポリシー境界線やコンテキスト依存のケースに遭遇した場合、ワークフローに関連するリフレッシュトレーニングに定期的に参加します。また、すべてのモデレーターが最新で、すべての更新されたポリシーに準拠していることを確認するために、スキルアッププログラム、認定セッション、およびクイズを実行します。 最後に、現在のイベントに基づいて緊急のコンテンツトレンドが浮上した場合、当社はポリシーの明確化を迅速に発信し、チームがSnapのポリシーに従って対応できるようにします。
当社は、コンテンツモデレーションチームに、現場のウェルネスサポートやメンタルヘルスサービスへの簡単なアクセスなど、重要なサポートとリソースを提供しています。
コミュニティガイドライン違反(違法なコンテンツやアクティビティを含む)で当社の安全チームによってアカウントがロックされているユーザーは、ロックされたアカウントの不服申し立てを提出することができます。ユーザーは、特定のコンテンツモデレーションの決定に不服申し立てを行うこともできます。
報告期間(2024年下半期)中、Snapは、EU内の社内苦情処理システムを介して提出された以下の不服申し立て(アカウントロックとコンテンツレベルのモデレーションの決定に対する不服申し立てを含む)を処理しました。
定性的な説明と目的
第3条(b)で説明されているように、当社は、自動化ツールを導入して、当社の規約およびポリシーの違反を事前に検出し、場合によっては法的措置を行います。これらのツールには、ハッシュマッチングツール(PhotoDNAやGoogle CSAI Matchを含む)、GoogleコンテンツセーフティAPI、不正言語検出モデル(特定され定期的に更新された不正なキーワードや絵文字のリストに基づいてコンテンツを検出し拒否する)、人工知能、機械学習、大規模言語モデルを活用したテクノロジーが含まれます。 当社の自動化ツールは、当社のコミュニティガイドライン(特に違法コンテンツを禁止する)、および該当する場合はおすすめの対象コンテンツガイドラインおよび広告ポリシーの違反を検出するように設計されています。
当社の自動化ツールは、当社のポリシーへの違反の可能性を検出した場合、当社のポリシーに従って自動的に措置を講じるか、人間による審査のためのタスクを作成します。
加盟国別の精度率およびエラー率の指標
当社は、自動ツールで処理されたタスクのランダムなサンプルを選択し、人間のモデレーションチームによる再検討のために提出することで、当社の自動モデレーションツールの精度とエラー率の指標を監視しています。 精度は、人間のモデレーターによる再審査時に正しいモデレーションの決定が行われたと確認された、これらのランダムサンプルからのタスクの割合です。 エラー率とは、100%と上記で計算された精度率との差です。
当社は、以下の2つの幅広いカテゴリの自動モデレーションツールの精度とエラー率を監視しています。
当社のコミュニティガイドラインの違反を検出および/または執行する自動化ツールで、ユーザーのアカウントに対する措置(アカウントに対する警告やアカウントのロックなど)につながる場合があります。 サンプリングに基づくと、2024年下半期のこれらの自動化ツールの精度は約95%で、エラー率は約5%でした。
おすすめの対象コンテンツガイドラインに基づいて、公共放送上のコンテンツの検出および/または措置を講じる自動化ツール。 サンプリングに基づくと、2024年下半期のこれらの自動化ツールの精度は約85%で、エラー率は約15%でした。
サンプリングに基づくと、2024年下半期の上記の両方のカテゴリで使用された自動化ツールの精度は、合わせて約89%で、エラー率は約11%でした。
当社は通常、Snapchatでモデレートするコンテンツの言語を追跡しないため、加盟国の公用語ごとの自動モデレーションツールの精度率やエラー率の内訳を提供することはできません。この情報の代用として、各加盟国からの自動的にモデレーションされたコンテンツ(コミュニティガイドラインとおすすめの対象コンテンツガイドラインの両方を含む)の精度率とエラー率を組み合わせた内訳を以下に提供します。
セーフガード
当社は、自動モデレーションツールが基本的人権に及ぼす潜在的な影響に留意しており、その影響を最小限に抑えるためのセーフガードを導入しています。
当社の自動化されたコンテンツモデレーションツールは、展開前にテストされます。 モデルはパフォーマンスをオフラインでテストされ、A/Bテストを通じてデプロイされ、完全に生産段階に入る前にその機能が適切であるかを確認されます。当社は、リリース前の品質保証(QA)レビュー、リリース時のレビュー、部分的(段階的)なロールアウト中の継続的な精度QAチェックを行っています。
自動化ツールのリリース後、当社はそれらのパフォーマンスと精度を継続的に評価し、必要に応じて調整を行います。このプロセスでは、人間のモデレーターによる自動化タスクのサンプルの再審査を行い、精度を向上させるための調整が必要なモデルを特定します。また、毎日ランダムに選んだ特定のパブリックコンテンツを通じて、Snapchatにおける特定の危害の蔓延状況を監視し、この情報を活用してさらなる改善点を見極めます。
当社のポリシーとシステムは、自動化ツールによるものも含め、一貫した公正な執行を促進します。また、Snapchatユーザーは、個々のSnapchatユーザーの権利を保護しながらコミュニティの利益を保護することを目的とした通知とアピールプロセスを通じて、執行結果に異議を唱える機会を提供します。
当社は、精度を向上させ、ポリシーの一貫した公正な施行をサポートするために、自動化されたコンテンツモデレーションツールを継続的に改善するよう努めています。
報告期間(2024年下半期)において、当社はDSA第21条に規定されている裁判外紛争解決機関に、Snapに対して提出された紛争に関する以下の情報を提供しています。
上記の表は、報告期間(2024年下半期)中、DSA第21条に基づき認証された裁判外紛争解決機関に提出された紛争の状況を反映しています。 2024年12月31日現在、2024年下半期に当該機関に提出された20件の紛争のうち、15件は保留中で、5件は決定が発行される前に解決されました。
認証された第21条の機関に提出された苦情のうち、関連機関がSnapに送信する前に受理できないと判断したものは、上記の表には含まれていませんのでご注意ください。 認証機関のすべてではありませんが、その一部が当該の紛争をSnapに通知しているため、このカテゴリに該当する紛争の件数を確認することはできません。 ただし、2024年下半期には、このカテゴリに該当する6件の苦情を認識しています。
第23条1項に基づく停止:明らかに違法なコンテンツを頻繁に提供するアカウントの停止
Snapchatのモデレーション、強制執行、および不服申し立てで詳しく説明されているように、主に当社のコミュニティガイドラインに違反するために使用されていると当社が判断したアカウント(明らかな違法コンテンツの提供を含む)、ならびに深刻な損害を与えるアカウントは、直ちに無効になります。当社のコミュニティガイドラインに違反するその他の事項について、Snap は一般的に以下の 3 つの部分からなる実施プロセスを適用します。
ステップ1:違反コンテンツを削除します。
ステップ2:ユーザーは、コミュニティガイドラインに違反した、コンテンツが削除された、違反を繰り返た場合、アカウントの無効化を含む追加の強制措置が講じられることを示す通知を受けます。
ステップ3:当社のチームはユーザーのアカウントに対してストライクを記録します。
2024年下半期にEUのアカウントで課されたストライキ(警告)やロックの回数に関する情報は、上記の第3(a)と第3(b)項をご覧ください。
第23条2項に基づく停止:明らかに根拠のない通知または苦情を頻繁に提出する個人、団体、申立人からの通知や苦情の処理の停止
「明らかに根拠のない」通知や苦情の社内定義、およびそのような通知や苦情が頻繁に提出されていると当社が判断する社内基準を適用すると、DSA第23条2項に従って2024年下半期に行われた通知および苦情の処理停止件数は、以下のとおりです。
当社のコンテンツモデレートチームは、世界中で24時間365日活動しており、コミュニティの安全を守っています。 以下は、2024年12月31日現在のモデレーター(モデレーターの中には複数の言語を専門とする人もいます)の専門言語別の人間モデレーションリソースの内訳です。
上記の表には、2024年12月31日現在、EU加盟国の公用語をサポートするコンテンツのモデレーションに特化したすべての人材が含まれています。追加の言語サポートが必要な場合は、翻訳サービスを利用します。
モデレーターは、言語要件(必要に応じて)を含む標準的な職務記述書を使用して募集します。 言語要件は、候補者が書面および会話で対象言語が流暢であることを示す必要があると規定されています。エントリーレベルのポジションの場合、候補者には最低1年の実務経験が求められます。 候補者は、考慮されるためには、学歴および背景の要件を満たしている必要があります。また、候補者は、サポートするコンテンツモデレーションの国または地域の現在のイベントを理解していることを確認する必要があります。
DSA第15条(1)(c)、および「コンテンツモデレーションの担当者にトレーニングおよび支援を行うための措置」と題された最後のサブセクションの第3項(b)で別途定められている、Snapがコンテンツモデレーターに提供するトレーニングとサポートに関する情報については、上記をご覧ください。
リリース:2025年1月31日
最終更新:2025年1月31日
このレポートは、2024年1月1日から2024年12月31日までの期間を対象としています。
背景
当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。
当社が使用するテクノロジーには、(a) PhotoDNAの堅牢なハッシュマッチングとGoogleの児童性的虐待画像(CSAI)マッチが使用され、CSEAの既知の違法画像や動画を特定するテクノロジーと、(b) 新規で「ハッシュ化されたことのない」CSEA画像を特定するGoogleのコンテンツセーフティAPIが含まれます。 法律で定められている通り、当社は、CSEAイメージを全米失踪・被搾取児童センター(NCMEC)に報告しています。NCMECは、必要に応じて米国およびその他の国の法執行機関と連携します。
レポート
以下のチャートには、2024年におけるCSEA画像に対するEUユーザーに対する事前検出と結果的な施行に関するデータが含まれています。 (2024年の上記の事前スキャンに起因する一部の施行は、本報告書が作成された時点でまだ不服申し立ての対象となる場合があり、以下の不服申し立てや復帰のデータには反映されません。)
*このカテゴリは、児童の性的搾取を禁止するSnapのコミュニティガイドライン抵触の施行を報告します。 Snapのコミュニティガイドラインのその他の抵触が事前に検出されたコンテンツは、ここでは報告されません。
**施行時に有効な当社のポリシーに基づいて誤りがあったと当社が判断した場合、または当初正しく施行されたが、不服申し立てを審査した時点で適用される当社ポリシーが変更された場合には、施行が無効になる可能性があります。
コンテンツモデレーションの安全対策。
CSEAメディアスキャンに適用される保護措置は、上記のEU DSA透明性レポートに記載されています。
公開:2025年2月28日
最終更新:2025年2月28日
報告サイクル:2024年1月1日~2024年12月31日
この透明性レポートは、欧州議会およびEU理事会規則2021/784の第7条(2)および第7条(3)に従って公開され、オンライン上のテロリストコンテンツの拡散に対処しています。2024年1月1日~12月31日までの報告期間を対象としています。
第7条(3)(a):テロリストコンテンツの特定および削除、またはアクセスの無効化に関するホスティングサービスプロバイダの措置に関する情報
第7条(3)(b):特に自動化ツールが使用された場合に、テロリストコンテンツであるとみなされたために過去に削除されたまたはアクセスが無効化されたコンテンツがオンライン上に再出現した場合に対処するための、ホスティングサービスプロバイダーの措置に関する情報
Snapchatのテロリストコンテンツの発生率は非常に低く、2024年に規制に基づく削除命令は受けませんでした。
テロリスト、テロ組織、暴力的過激派は、Snapchatの使用を禁止されています。テロリズムまたはその他の暴力的犯罪行為を擁護、促進、称賛、助長するコンテンツは、当社のコミュニティガイドラインで禁止されています。ユーザーは、アプリ内報告メニューおよびサポートサイトから、当社のコミュニティガイドラインに違反するコンテンツを報告することができます。また、事前検知を使用して、SpotlightやDiscoverなどの公共上で違反コンテンツを特定しようとします。
違反コンテンツの認識方法に関わらず、当社のセーフティチームは、自動化と人間のモデレーションを組み合わせて、特定されたコンテンツを迅速に確認し、強制執行の決定を下します。強制執行には、コンテンツの削除、違反アカウントの警告または無効化、および必要があれば当該アカウントの法執行機関への通報などが含まれます。テロリストやその他の暴力的過激派のコンテンツがSnapchat上に再出現するのを防ぐため、法執行機関との協力に加え、違反アカウントに関連するデバイスをブロックし、ユーザーが別のSnapchatアカウントを作成できないようにする措置を講じています。
テロリストのコンテンツの特定および削除に関する当社の措置についての詳細は、憎しみに満ちたコンテンツ、テロリズム、暴力的過激主義およびモデレーション、強制執行、不服申し立てに関する説明をご覧ください。
第7条(3)(c):削除命令または特定の措置によって削除された、またはアクセスが無効化されたテロリストコンテンツのアイテムの数、および第3条(7)の第1段落と第3条(8)の第1段落に従ってコンテンツが削除されなかった、またはアクセスが無効化されなかった削除命令の件数とその理由
報告期間中、Snapは削除命令を受けず、規制第5条に基づく具体的な措置を求められることもありませんでした。したがって、規制に基づく強制措置を講じる必要はありませんでした。
次の表は、テロリズムや暴力的過激主義のコンテンツに関するコミュニティガイドラインに違反したコンテンツやアカウントに対して、EUおよび世界各地でユーザーからの報告や事前検出に基づいて行われた強制措置について説明しています
第7条(3)(d):第10条に従ってホスティングサービスプロバイダーが処理した苦情の件数と結果
第7条(3)(g):コンテンツプロバイダーからの苦情を受けて、ホスティングサービスプロバイダーがコンテンツまたはコンテンツへのアクセスを復帰したケースの件数
上記に記載されている報告期間中に、規制に基づく強制措置を講じなかったため、規制第10条に基づく苦情への対応や、関連する復帰は行われませんでした。
次の表には、EUおよび世界各地における、当社のコミュニティガイドラインに基づいて施行された、テロリストおよび暴力的過激派のコンテンツに対する不服申し立ておよび復帰に関する情報が含まれています。
第7条(3)(e):ホスティングサービスプロバイダーによって行われた行政手続きまたは司法審査手続きの件数と結果
第7条(3)(f):行政手続きまたは司法審査手続きの結果、ホスティングサービスプロバイダーがコンテンツを復元またはそれらにアクセスするよう要求されたケースの件数
上記に記載されているように、報告期間中に規制に基づく強制措置を講じなかったため、関連する行政手続きまたは司法審査手続きはなく、そのような手続きの結果、コンテンツを復元する必要もありませんでした。
このレポートは、規制(EU)2022/2065の第34条および35条に基づくSnapの義務を遵守するために作成されたもので、Snapchatのオンラインプラットフォームの設計、機能、使用に起因するシステムリスクの評価結果、それらのリスクを評価するために使用された方法論、およびそれらのリスクに対処するために実施された軽減策を提供します。
DSAリスクおよび軽減策評価レポート | Snapchat | 2023年8月 (PDF)
これらのレポートは、規制 (EU) 2022/2065の第37条に基づくSnapの義務を遵守するために作成されたもので、以下の内容を提供します。 (i) Snapが規制 (EU) 2022/2065の第Ⅲ章に定められた義務を遵守しているかどうかに関する独立監査の結果、および (ii) その独立監査からの運用上の推奨事項を実施するために講じられた対策。
DSA独立監査レポート | Snapchat | 2024年8月 (PDF)
DSA監査実施レポート | Snapchat | 2024年9月 (PDF)
EUVSP行動規範
Snapは、第1条(1)(aa)AVMSDに基づく「動画共有プラットフォームサービス」(「VSP」)プロバイダーです。本行動規範(「規範」)は、オランダメディア法(「DMA」)および指令(EU)2010/13(指令(EU)2018/1808(「視聴覚メディアサービス指令」または「AVMSD」)に基づくVSPとしての義務をSnapがどのように遵守しているかを説明するために作成されました。本規範は、欧州連合および欧州経済領域(EEA)全体で適用されます。
EUVSP行動規範|Snapchat|2025年3月(PDF)
ブルガリア語 | クロアチア語 | チェコ語 | デンマーク語 | オランダ語 | エストニア語 | フィンランド語 | フランス語 | ドイツ語 | ギリシャ語 | ハンガリー語 | アイルランド語 | イタリア語 | ラトビア語 | リトアニア語 | マルタ語 | ポーランド語 | ポルトガル語 | ルーマニア語 | スロバキア語 | スロベニア語 | スペイン語 | スウェーデン語