Snap Values
透明性レポート
2024年7月1日~2024年12月31日

リリース日:

2025年6月20日

更新日:

2025年7月1日

Snapの安全への取り組みに関する洞察を提供するために、年2回、この透明性レポートを公表しています。 安全性と透明性へのコミットメントの一環として、当社のコンテンツのモデレーション、法執行機関の慣行、Snapchatコミュニティの安全と幸福について深く関心を持つ多くのステークホルダーにとって、これ等の報告書がより包括的かつ有益なものになるよう継続的に努力しています。 

この透明性レポートは、2024年下半期(7月1日~12月31日)を対象としています。当社は、ユーザーによる報告やSnapによる事前検出、セーフティチームによるコミュニティガイドライン違反の特定カテゴリーへの取り組み、法執行機関や政府機関からの要請への対応、著作権および商標権侵害の通知への対応に関するグローバルデータを共有しています。 また、一連のリンクされたページで国固有のインサイトを提供しています。

Snapchatの安全性とプライバシーに関する追加リソースについては、ページ下部の透明性の報告についてタブをご覧ください。

この透明性レポートの最新バージョンは英語版です。

トラスト&セーフティチームのコミュニティガイドラインの執行に関するアクションの概要

セーフティチームは、本レポートの以下のセクションで詳細を説明するように、積極的に(自動検出ツールの使用を通じて)および事後的に(報告への対応)コミュニティガイドラインを執行しています。 この報告サイクル(H2 2024)で、当社のセーフティチームは執行を以下の回数行いました。

総執行件数

執行を受けた固有アカウントの合計

10,032,110

5,698,212

以下は、違反を検出した時(積極的に、または報告を受けた場合)から、関連するコンテンツまたはアカウントについて最終的な措置を講じた日までの所要時間の中央値を含めた、関連するコミュニティガイドライン違反の種類別の内訳です。

方針理由

総執行件数

執行を受けた固有アカウントの合計

検出から最終的な措置までのターンアラウンド時間中央値(分)

性的コンテンツ

3,860,331

2,099,512

2

児童の性的搾取

961,359

577,682

23

ハラスメントやいじめ

2,716,966

2,019,439

7

脅威や暴力

199,920

156,578

8

自傷行為と自殺

15,910

14,445

10

虚偽情報

6,539

6,176

1

なりすまし

8,798

8,575

2

スパム

357,999

248,090

1

麻薬

1,113,629

718,952

6

武器

211,860

136,953

1

その他の規制品

247,535

177,643

8

ヘイトスピーチ

324,478

272,025

27

テロリズムと暴力的過激主義

6,786

4,010

5

報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にコミュニティガイドライン違反のコンテンツが含まれていたことを意味します。

トラスト&セーフティチームに報告されたコミュニティガイドライン違反

2024年7月1日から12月31日まで、Snapのセーフティチームは、コミュニティガイドラインに違反しているというアプリ内報告に対応し、世界中で合計6,346,508件の執行措置を講じました。これには、4,075,838件の固有アカウントに対する執行措置が含まれます。  セーフティチームが、これらの報告に応じて執行するまでの所要時間の中央値は、約6分でした。 報告カテゴリ別の内訳は、以下に示されています。 

コンテンツおよびアカウントレポートの合計

総執行件数

執行を受けた固有アカウントの合計

19,379,848

6,346,508

4,075,838

方針理由

コンテンツおよびアカウントレポート

総執行件数

Snapによる執行を受けたレポートの合計の割合

執行を受けた固有アカウントの合計

検出から最終的な措置までのターンアラウンド時間中央値(分)

性的コンテンツ

5,251,375

2,042,044

32.20%

1,387,749

_Core

児童の性的搾取

1,224,502

469,389

7.40%

393,384

133

ハラスメントやいじめ

6,377,555

2,702,024

42.60%

2,009,573

7

脅威や暴力

1,000,713

156,295

2.50%

129,077

8

自傷行為と自殺

307,660

15,149

0.20%

13,885

10

虚偽情報

536,886

6,454

0.10%

6,095

1

なりすまし

678,717

8,790

0.10%

8,569

2

スパム

1,770,216

180,849

2.80%

140,267

1

麻薬

418,431

244,451

3.90%

159,452

23

武器

240,767

6,473

0.10%

5,252

1

その他の規制品

606,882

199,255

3.10%

143,560

8

ヘイトスピーチ

768,705

314,134

4.90%

263,923

27

テロリズムと暴力的過激主義

197,439

1,201

<0.1%

1,093

_Core

前回の報告期間と比較して、すべてのポリシーカテゴリーにわたって平均90%の所要時間を短縮しました。 この削減は、主に、当社のレビュー能力を拡大し、害の重大度に基づいて報告の優先順位を改善するための共同の取り組みによるものです。 また、報告期間中に安全への取り組みを対象としたいくつかの変更を行いました。これには、コミュニティガイドラインに違反するユーザー名と表示名のアカウントを強制する取り組みの拡大、Snapchat上のコミュニティに対する報告と保護の強化、アプリ内でボイスノートなど、さらに追加のタイプのメディアを報告するオプションの導入など、ここで報告されたデータに影響を及ぼしました。 

これらの変更、およびその他の安全への取り組みや外部要因は、前回の報告期間と比較して、特に特定のポリシー分野に影響を与えました。 これらのポリシーカテゴリーには、児童の性的搾取および虐待(CSEA)の疑いに関連するコンテンツ、有害な虚偽情報、スパムが含まれます。 具体的には:

  • 2024年下半期、CSEA関連の報告が12%減少し、報告されたCSEAへの対応時間の中央値を99%短縮しました。 これらの傾向は、主に、CSEAコンテンツが報告される前に削除されたこと、およびCSEAの報告をより効率的に確認し、措置を講じるプロセスを改善したことによるものです。 これらの改善にもかかわらず、コンテンツが特別に訓練されたエージェントの選択されたチームとのダブルレビューを含む特殊なプロセスの対象となるため、CSEAの所要時間は他のポリシー分野よりも長くなっています。

  • 有害な虚偽情報:2024年11月開催の米国選挙を含む政治的なイベントを中心に、有害な虚偽情報に関連する報告件数が26%増加したことを観察しました。

  • スパム:この報告期間中、スパムが疑われる報告に応じて、執行されたことの合計は約50%減少し、また、執行された固有アカウントの合計は約46%減少しました。これは、当社の積極的な検出と執行ツールの改善を反映しています。 これは、アカウントシグナルを通じてスパムをターゲットにし、プラットフォーム上のスパム行為者をより早く削除する取り組みの継続です。 この取り組みは、前回の報告期間中すでに進行中であり、スパムに対する執行の総数と固有のアカウントの総数は、それぞれ約65%と約60%減少しました。

コミュニティガイドラインの違反を積極的に検出し、執行するための取り組み

コミュニティガイドラインの積極的な検出と執行


当社は、コミュニティガイドラインの違反を積極的に検出するため、自動化されたツールを使用しています。必要に応じて、これらの違反に対して措置を講じる場合があります。これらのツールには、ハッシュマッチング技術(PhotoDNAやGoogleの児童性的虐待画像(CSAI)マッチを含む)、GoogleのコンテンツセーフティAPI、および、時には人工知能や機械学習を活用した、不正なテキストやメディアを検出するために設計されたその他のカスタムテクノロジーが含まれます。 

2024年下半期、自動検出ツールを使用してコミュニティガイドラインの違反を積極的に検出した後、以下のような執行措置を講じました。

総執行件数

執行を受けた固有アカウントの合計

3,685,602

1,845,125

方針理由

総執行件数

執行を受けた固有アカウントの合計

検出から最終的な措置までのターンアラウンド時間中央値(分)

性的コンテンツ

1,818,287

828,590

<1

児童の性的搾取

491,970

188,877

1

ハラスメントやいじめ

14,942

11,234

8

脅威や暴力

43,625

29,599

9

自傷行為と自殺

Snap Legal

624

9

虚偽情報

85

81

10

なりすまし

8

6

19

スパム

177,150

1110,551

<1

麻薬

869,178

590,658

5

武器

205,387

133,079

<1

その他の規制品

48,280

37,028

9

ヘイトスピーチ

10,344

8,683

10

テロリズムと暴力的過激主義

5,585

2,951

21

児童の性的搾取と虐待への対策 

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。

当社は、CSEA関連のコンテンツを特定するために、アクティブなテクノロジー検出ツールを使用しています。 これらのツールには、ハッシュマッチングツール(PhotoDNAやGoogleのCSAI Matchなど、それぞれCSEAの既知の違法画像や動画を特定する)やGoogleコンテンツ安全API(新規で「ハッシュ化されたことのない」違法画像を特定する)が含まれます。 さらに、場合によっては、他のCSEA行為の疑いがある場合に対して、行動パターンを分析したシグナルを活用しています。 法律で定められている通り、当社は、CSEA関連のコンテンツを全米失踪・被搾取児童センター(NCMEC)に報告しています。NCMECは、必要に応じて国内または国際的な法執行機関と調整します。

2024年下半期、SnapchatでCSEAを検出した際に(積極的に、または報告を受けた場合)次の措置を講じました。


執行を受けたコンテンツの合計

無効なアカウント数の合計

NCMEC*への総提出数

1,228,929

242,306

417,842

*NCMECへの提出1回につき複数のコンテンツが含まれている場合があります。NCMECに提出された個別のメディアコンテンツの合計数は、当社が対抗措置をとったコンテンツの合計数と一致します。

Snapchatユーザーにリソースとサポートを提供する取り組み

Snapchatは、必要としているSnapchatユーザーにリソースとサポートを提供することで、フレンドが困難な時期にお互いに助け合う力を与えます。 

当社のHere For You検索ツールは、ユーザーがメンタルヘルス、不安、うつ病、ストレス、自殺念慮、悲しみ、いじめに関連する特定のトピックを検索する場合、専門家によるリソースを提供します。 また、苦しんでいる人々をサポートするために、リベンジポルノ恐喝および性的なリスクと危害に特化したページも開発しました。 安全に関するグローバル・リストは、プライバシー、セーフティ、ポリシーハブでSnapchatユーザー全員に公開されています。 
当社のセーフティチームは、危機に瀕しているSnapchatユーザーを認識すると、自傷行為の防止およびサポートリソースを提供し、必要に応じて緊急サービスに通知する体制を整えています。当社が共有するリソースは、当社の安全リソースのグローバルなリストに掲載されています。これらは、すべてのSnapchatユーザーに公開されています。

自殺に関するリソースが共有された回数の合計

64,094

アピール

以下は、2024年下半期にアカウントをロックする決定の見直しを求めるユーザーからの不服申し立てに関する情報です。

方針理由

不服申し立ての合計

復帰の合計

支持された決定の合計

不服申し立てを処理するまでの所要時間(日)の中央値

合計

493,782

35,243

458,539

5

性的コンテンツ

162,363

6,257

156,106

_Core

児童の性的搾取

102,585

15,318

87,267

6

ハラスメントやいじめ

53,200

442

52,758

7

脅威や暴力

4,238

83

4,155

5

自傷行為と自殺

31

1

30

5

虚偽情報

3

0

3

<1

なりすまし

Augmented Reality

33

_Core

7

スパム

19,533

5,090

14,443

9

麻薬

133,478

7,598

125,880

_Core

武器

4,678

136

4,542

6

その他の規制品

9,153

168

8,985

6

ヘイトスピーチ

3,541

Snapchat

3,427

7

テロリズムと暴力的過激主義

132

3

129

9

地域および国の概要

このセクションでは、地理的地域のサンプリングにおいて、積極的に、また違反のアプリ内報告に対応する、セーフティチームのコミュニティガイドラインを執行するための行動の概要を説明します。 当社のコミュニティガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。

すべてのEU加盟国を含む各国に関する情報は、添付のCSVファイルからダウンロードできます。


セーフティチームのコミュニティガイドラインの執行に関するアクションの概要

地域

総施行件数

執行を受けた固有アカウントの合計

北米

3,828,389

2,117,048

ヨーロッパ

2,807,070

1,735,054

その他の地域

3,396,651

1,846,110

合計

10,032,110

5,698,212

セーフティチームに報告されたコミュニティガイドライン違反

地域

コンテンツおよびアカウントレポート

総執行件数

執行を受けた固有アカウントの合計

北米

5,916,815

2,229,465

1,391,304

ヨーロッパ

5,781,317

2,085,109

1,378,883

その他の地域

7,681,716

2,031,934

1,319,934

合計

19,379,848

6,346,508

4,090,121

コミュニティガイドラインのプロアクティブな検出と執行

総執行件数

執行を受けた固有アカウントの合計

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

広告モデレーション

Snapは、すべての広告が当社の広告ポリシーに完全に準拠していることの確認に取り組んでいます。当社は、すべてのSnapchatユーザーにとって安全な体験を創り出すために、責任ある広告アプローチを信じています。 すべての広告は、当社の審査および承認の対象となります。さらに、当社は、ユーザーからのフィードバックを真撃に受け止め、広告を削除する権利を留保します。 


以下は、Snapchatに掲載された後に報告された有料広告のモデレーションに関する洞察です。 Snapchatの広告は、虚偽のコンテンツ、アダルトコンテンツ、暴力的または不快なコンテンツ、ヘイトスピーチ、知的財産権侵害など、Snapの広告ポリシーに記載されているように、さまざまな理由で削除される場合があります。さらに、Snapの透明性ハブでSnapchatの広告ギャラリーを見つけることができ、ナビゲーションバーから直接アクセスできます。

報告された広告の合計数

削除された広告の合計数

43,098

17,833