Snap Values
児童の性的搾取と虐待(CSEA)メディアスキャンレポート

リリース:2026年1月30日

最終更新:2026年1月30日 


当レポートは、2025年1月1日から2025年12月31日までを対象としています。


背景

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。


当社が使用するテクノロジーには、(a) PhotoDNAの堅牢なハッシュマッチングとGoogleの児童性的虐待画像(CSAI)マッチが使用され、CSEAの既知の違法画像や動画を特定するテクノロジーと、(b) 新規で「ハッシュ化されたことのない」CSEA画像を特定するGoogleのコンテンツセーフティAPIが含まれます。 法律で定められている通り、当社は、CSEAイメージを全米失踪・被搾取児童センター(NCMEC)に報告しています。NCMECは、必要に応じて米国およびその他の国の法執行機関と連携します。


レポート

以下のチャートには、2025年のCSEA画像のEUユーザーに対する積極的な検出と結果の執行に関するデータが含まれています。 (注意:2025年の積極的なスキャンの結果生じた一部の執行は、この報告が編集された時点でもまだ異議申し立ての対象となる場合があるため、以下の異議申し立てと復帰のデータには反映されません。)


EUデータ 

合計

事前スキャンによりCSEA画像である可能性が高いものとして特定されたコンテンツの合計

189,057

SnapのCSEAに対するポリシーに抵触したことで実施された措置の合計

61,774

アピール合計

12,246

検討された異議申し立ての合計 

12,246

不服申し立て後に取り消された措置の合計

1,012

異議申し立て後に執行が覆された割合(取り消された措置の合計 ÷ 審査された不服申し立ての合計)

8.26%

検出されたCSEAの保持期間

730日

1.  このカテゴリでは、児童の性的搾取を禁止するSnapのコミュニティガイドラインの違反に対する執行を報告します。  Snapのコミュニティガイドラインのその他の抵触が事前に検出されたコンテンツは、ここでは報告されません。

2.  執行時に有効なポリシーに基づいて誤りであると当社が判断した場合、または元々は正しく執行されたと当社が判断した場合、ただし異議申し立ての審査時に適用されるポリシーが変更された場合、執行は無効にできます。

コンテンツモデレーションの安全対策

CSEAメディアスキャンに適用される保護措置は、上記のEU DSA透明性レポートに記載されています。