Snap Values
透明性レポート
2024年1月1日~2024年6月30日

リリース日:

2024年12月05日

更新日:

2024年12月05日

Snapの安全への取り組みに関する洞察を提供するために、年2回、この透明性レポートを公表しています。 当社は、これらの取り組みにコミットしており、当社のコンテンツのモデレーション、法執行機関の慣行、Snapchatコミュニティの安全と幸福について深く関心を持つ多くのステークホルダーにとって、これ等の報告書がより包括的かつ有益なものになるよう継続的に努力しています。 

この透明性レポートは、2024年上半期(1月1日~6月30日)を対象としています。 これまでの報告書と同様に、コミュニティガイドライン違反の特定のカテゴリについて、当社のトラスト&セーフティーチームが受理または対処したアプリ内コンテンツの世界的な量とアカウントレベルのサポート、および施行に関するデータ、法執行機関や政府からの要請への対応、そして、著作権および商標権侵害の通知への対応 がどのように行われかを共有しています。 また、このページの一番下にあるリンク先のファイルに国別の洞察も提供しています。

透明性レポートを継続的に改善するという継続的な取り組みの一環として、コミュニティガイドラインの広範囲にわたる違反を検出し、実施するための積極的な取り組みを強調する新しいデータを導入しています。 このレポートには世界レベルと国レベルのデータが含まれており、今後もそうしていく予定です。 また、以前の報告でラベル付けエラーを修正しました。以前は「実施された総コンテンツ」と言及しており、関連する列に提供されたデータがコンテンツレベルとアカウントレベルの両方を含むという事実を反映するため、現在は「実施総数」と表しています。

オンライン上の潜在的な危害に対処するためのポリシー、および報告慣行を進化させる計画の詳細については、この透明性レポートに関する最近のセーフティ&インパクトブログをご覧ください。 Snapchatの安全性とプライバシーに関する追加リソースについては、ページ下部の透明性の報告についてタブをご覧ください。

この透明性レポートの最新版は、EN-USロケールでご覧いただけます。

トラスト&セーフティチームのコミュニティガイドラインの実施に関するアクションの概要

トラスト&セーフティチームは、このレポートの次のセクションに詳しく記載されているように、プロアクティブ(自動化ツールの使用を通じて)とリアクティブ(報告に応じて)のコミュニティガイドラインを積極的に実施しています。 この報告サイクル(2024年上半期)で、トラスト&セーフティチームは、次のような措置を講じました。 

以下は、違反を検出した時(積極的に、または報告を受けた場合)から、関連するコンテンツまたはアカウントについて最終的な措置を講じた日までの所要時間の中央値を含め、関連するコミュニティガイドライン違反の種類別の内訳です。

報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にコミュニティガイドライン違反のコンテンツが含まれていたことを意味します。

トラスト&セーフティチームに報告されたコミュニティガイドライン違反

2024年1月1日~6月30日より、Snapのトラスト&セーフティチームは、3,842,507のユニークアカウントに対する強制措置を含む、全世界で合計6,223,618件の強制措置を実施しました。 トラスト&セーフティチームが、これらの報告に応じて実施するまでの所要時間の中央値は、約24分でした。 報告カテゴリ別の内訳は、以下に示されています。 

分析

2024年上半期の全体的な報告量は、前6ヶ月と比較してかなり安定しました。 このサイクルでは、強制措置の総数と強制措置されたユニークアカウント数が約16%増加しました。

過去12ヶ月の間(2024年上半期)に、Snapは、ユーザー向けに新しい報告メカニズムを導入しました。これは報告および強制措置されたボリュームの変化とこの報告機関における所要時間の増加によるものです。具体的には:

  • グループチャット報告:2023年10月13日にグループチャット報告を導入しました。このレポートは、ユーザーがマルチユーザーチャットで発生した虐待を報告することができます。 この変更は、報告カテゴリ全体の指標の構成に影響を与えました(チャットコンテキストでは潜在的な危害が起こる可能性が高いため)、および報告の実行可能性が向上しました。 

  • アカウント報告の強化:また、アカウント報告機能を進化させ、悪質業者が運営していると疑われるアカウントを報告する際に、チャット証拠を提出するオプションを報告ユーザーに提供しています2024年2月29日に開始されたこの変更により、アカウント報告を評価するためのより大きな証拠と文脈を得ることができます。


チャット報告、特にグループチャット報告は、レビューに最も複雑で時間のかかるものの1つであり、全体で所要時間が延びました。 

児童性的搾取と虐待(CSEA)、ハラスメントといじめ、ヘイトスピーチの報告は、特に上記の2つの変化、およびより広範囲にわたるエコシステムでの変化の影響を受けました。 具体的には:

  • CSEA:2024年上半期のCSEA関連の報告と強制措置の増加を観察しました。 具体的には、ユーザーによるアプリ内報告総数が64%、強制措置数が82%増加、強制措置されたユニークアカウント数が108%増加しました。 これらの増加は、主にグループチャットとアカウント報告機能の導入により促進されました。 このモデレーションキューの敏感な性質を考慮して、高度な訓練を受けたエージェントからなる選抜チームが、CSEA関連の違反の可能性に関する報告を審査するために割り当てられています。 追加報告の流入とチームが新しいトレーニングに適応したことにより、所要時間が延びました。 今後、所要時間の短縮と潜在的なCSEAの報告を正確に措置するために、グローバルベンダーチームの規模を大幅に拡大しました。 2024年下半期の透明性レポートが、この取り組みの成果を大幅に改善し、所要期間を大幅に改善できたと考えています。

  • ハラスメントといじめ:報告に基づき、チャット、特にグループチャットでハラスメントといじめが不釣合いに発生することが観察されました。 グループチャット報告とアカウント報告に導入された改善により、この報告カテゴリの報告を評価する際に、より包括的な措置を講じることができました。 さらに、この期間から、ハラスメントといじめ報告を提出する際、ユーザーにコメントを入力するよう求めています。 各報告の文脈を理解するために、このコメントをレビューしています。 これらの変更により、強制措置総数(+91%)、強制措置されたユニークアカウント数(+82%)、および対応報告の所要時間(+245分)が大幅に増加しました。 

  • ヘイトスピーチ:2024年上半期、ヘイトスピーチの報告内容、強制措置総数、所要時間の増加を観察しました。 具体的には、アプリ内報告が61%、強制措置総数が127%、強制措置されたユニークアカウント数が125%増加しました。 これは、チャット報告の仕組みが改善されたこと(以前に議論されたように)所要因であり、地政学的環境、特にイスラエル・ハマス紛争の継続により、さらに悪化しました。 

この報告期間中、スパムおよび不正使用の疑いがあるとの報告を受けて、総強制措置件数は約65%減少し、総ユニークアカウントの総強制措置件数が60%減少しました。これは、積極的な検出と強制措置ツールが改善さたことを反映しています。 自傷行為と自殺に関するコンテンツの報告に応じて、実施総数が同様の減少(約80%減少)を経験しました。これは、更新された被害者中心のアプローチを反映しています。トラスト&セーフティチームは、適切な場合、ユーザーに対して措置を行うのではなく、関連するユーザー自助リソースを送信します。 このアプローチは、インタラクティブメディアとインターネット障害を専門とする小児科教授、医師を含む、安全諮問委員会のメンバーから報告されました。

コミュニティガイドラインの違反を積極的に検出し、実施するための取り組み

コミュニティガイドラインの積極的な検出と実施


コミュニティガイドラインの違反を積極的に検出し、場合によっては実施するために自動ツールを導入しています。 これらのツールには、ハッシュマッチングツール(PhotoDNAやGoogleの児童の性的虐待画像(CSAI)マッチなど)、虐待的な言語検出ツール(特定され、定期的に更新された虐待的なキーワードや絵文字のリストに基づいて検出し、実施する)、およびマルチモーダル人工知能/機械学習技術が含まれます。 

2024年上半期には、自動化ツールの使用を通じてコミュニティガイドラインの違反を積極的に検出した後、次のような実施措置を講じました。

児童の性的搾取と虐待への対策 

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。

PhotoDNAロバスト・ハッシュマッチングやGoogleの児童性的虐待画像(CSAI)マッチなどのアクティブ技術検出ツールを使用して、それぞれCSEAの既知の違法な画像と動画を特定します。 さらに、場合によっては、その他の違法となりうるCSEA活動を取り締まるために行動シグナルを使用します。 法律で定められている通り、当社は、CSEA関連のコンテンツを全米失踪・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。

2024年上半期、SnapchatでCSEAを検出した際に(積極的に、または報告を受けた場合)次の措置を講じました。

*NCMECへの提出1回につき複数のコンテンツが含まれている場合があります。NCMECに提出された個別のメディアコンテンツの合計数は、当社が強制措置をとったコンテンツの合計数と一致します。

Snapchatユーザーにリソースとサポートを提供する取り組み

当社は、Snapchatユーザーのメンタルヘルスや幸福について深い関心を払っています。そのため、Snapchatの構築に関する当社の決定をさまざまな方法でお知らせしています。実際の友人間でのコミュニケーションのためにデザインされたプラットフォームとして、Snapchatは、困難な場面に遭遇したときに相互に助け合う力を発揮するというユニークな役割を果たすことができると、当社では考えています。そのため、Snapchatユーザーにリソースとサポートを開発しました。 

Here For You検索ツールは、ユーザーがメンタルヘルス、不安、うつ病、ストレス、自殺願望、悲しみ、いじめに関連する特定のトピックを検索した際に、現地の専門家からのリソースを表示します。 また、苦しんでいる人々をサポートするために、リベンジポルノ恐喝および性的なリスクと危害に特化したページも開発しました。 安全に関するグローバル・リストは、プライバシー、セーフティ、ポリシーハブでSnapchatユーザー全員に公開されています。 

トラスト&セーフティチームが困難な状況にあるSnapchatユーザーを認識した場合、自傷行為の防止とサポートのためのリソースを転送し、必要に応じて緊急対応担当者に通知することができます。当社が共有するリソースは、当社の安全リソースのグローバルなリストに掲載されています。これらは、すべてのSnapchatユーザーに公開されています。

アピール

以下は、アカウントロックの決定の見直しを求めるユーザーからの問合せに関する情報です。

*上記の「分析」セクションで議論されたように、児童の性的搾取に関連するコンテンツまたは活動の拡散を止めることは最優先事項です。 Snapはこのような目標に多大なリソースを割いており、そのような行為に対してゼロトレランスを持っています。 Snapchatの新しいポリシーと報告機能に適応するために、グローバルベンダーチームを拡大しました。 そのため、2023年下半期から2024年上半期の間に、CSEA上訴の所要時間を152日から15日に短縮しました。 控訴の所要時間を含め、プロセスの改善に継続的に努めています。

地域および国の概要

本項では、当社のトラスト&セーフティチームが、積極的にまたはアプリ内違反の報告に応じて、コミュニティガイドラインの実施に関するアクションの概要を説明します。 当社のコミュニティガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。

すべてのEU加盟国を含む各国に関する情報は、添付のCSVファイルからダウンロードできます。

トラスト&セーフティチームのコミュニティガイドラインの実施に関するアクションの概要

トラスト&セーフティチームに報告されたコミュニティガイドライン違反

コミュニティガイドラインのプロアクティブな検出と実施

広告モデレーション

Snapは、すべての広告が当社の広告ポリシーに完全に準拠していることの確認に取り組んでいます。当社は、広告に対して責任と敬意のあるアプローチを採用することで、すべてのユーザーに安全で楽しい体験を提供できると信じています。 すべての広告は、当社の審査および承認の対象となります。さらに、当社は、ユーザーからのフィードバックを真撃に受け止め、広告を削除する権利を留保します。 


以下は、Snapchatに掲載された後に報告された有料広告のモデレーションに関する洞察です。 Snapchatの広告は、虚偽のコンテンツ、アダルトコンテンツ、暴力的または不快なコンテンツ、ヘイトスピーチ、知的財産権侵害など、Snapの広告ポリシーに記載されているように、さまざまな理由で削除される場合があります。さらに、この透明性レポートのナビゲーションバーからSnapchatの広告ギャラリーを見つけることができます。