Snap Values
透明性レポート
2024年1月1日~2024年6月30日

リリース日:

2024年12月05日

更新日:

2024年12月05日

Snapの安全への取り組みに関する洞察を提供するために、年2回、この透明性レポートを公表しています。 当社は、これらの取り組みにコミットしており、当社のコンテンツのモデレーション、法執行機関の慣行、Snapchatコミュニティの安全と幸福について深く関心を持つ多くのステークホルダーにとって、これ等の報告書がより包括的かつ有益なものになるよう継続的に努力しています。 

この透明性レポートは、2024年上半期(1月1日~6月30日)を対象としています。 これまでの報告書と同様に、コミュニティガイドライン違反の特定のカテゴリについて、当社のトラスト&セーフティーチームが受理または対処したアプリ内コンテンツの世界的な量とアカウントレベルのサポート、および施行に関するデータ、法執行機関や政府からの要請への対応、そして、著作権および商標権侵害の通知への対応 がどのように行われかを共有しています。 また、このページの一番下にあるリンク先のファイルに国別の洞察も提供しています。

透明性レポートを継続的に改善するという継続的な取り組みの一環として、コミュニティガイドラインの広範囲にわたる違反を検出し、実施するための積極的な取り組みを強調する新しいデータを導入しています。 このレポートには世界レベルと国レベルのデータが含まれており、今後もそうしていく予定です。 また、以前の報告でラベル付けエラーを修正しました。以前は「実施された総コンテンツ」と言及しており、関連する列に提供されたデータがコンテンツレベルとアカウントレベルの両方を含むという事実を反映するため、現在は「実施総数」と表しています。

オンライン上の潜在的な危害に対処するためのポリシー、および報告慣行を進化させる計画の詳細については、この透明性レポートに関する最近のセーフティ&インパクトブログをご覧ください。 Snapchatの安全性とプライバシーに関する追加リソースについては、ページ下部の透明性の報告についてタブをご覧ください。

この透明性レポートの最新版は、EN-USロケールでご覧いただけます。

トラスト&セーフティチームのコミュニティガイドラインの実施に関するアクションの概要

トラスト&セーフティチームは、このレポートの次のセクションに詳しく記載されているように、プロアクティブ(自動化ツールの使用を通じて)とリアクティブ(報告に応じて)のコミュニティガイドラインを積極的に実施しています。 この報告サイクル(2024年上半期)で、トラスト&セーフティチームは、次のような措置を講じました。 

コンテンツおよびアカウント違反の概要

2023年7月1日~12月31日、Snapは、報告が行われ、当社のコミュニティガイドラインに違反した全世界で5,376,714個のコンテンツに対して強制執行を行いました。

報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にポリシー違反のコンテンツが含まれていたことを意味します。報告されたコンテンツを執行するまでの所要時間の中央値は、約10分です。

コンテンツおよびアカウント違反の概要

2023年7月1日~12月31日、Snapは、報告が行われ、当社のコミュニティガイドラインに違反した全世界で5,376,714個のコンテンツに対して強制執行を行いました。

報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にポリシー違反のコンテンツが含まれていたことを意味します。報告されたコンテンツを執行するまでの所要時間の中央値は、約10分です。

コンテンツおよびアカウント違反の概要

2023年7月1日~12月31日、Snapは、報告が行われ、当社のコミュニティガイドラインに違反した全世界で5,376,714個のコンテンツに対して強制執行を行いました。

報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にポリシー違反のコンテンツが含まれていたことを意味します。報告されたコンテンツを執行するまでの所要時間の中央値は、約10分です。

コンテンツとアカウント違反の分析

当社の全体的な報告および執行率は、過去6カ月間とほぼ同じでした。このサイクルでは、コンテンツとアカウントレポートの合計が約10%増加しました。

この時期にイスラエルとハマスの紛争が始まり、その結果、違反コンテンツが増加しました。ヘイトスピーチに関連する報告の合計は61%増加し、ヘイトスピーチに関するコンテンツの強制執行の合計は97%増加し、固有アカウントの強制執行の合計は124%増加しました。テロリズムおよび暴力的過激主義の報告と強制執行も増加していますが、プラットフォームにおけるコンテンツの強制執行全体の0.1%未満です。当社のトラスト&セーフティチームは、Snapchatの安全性を維持するために、世界的な紛争の発生に対しては引き続き警戒を怠らないようにしていきます。また、透明性レポートを拡大し、テロリズムおよび暴力的過激主義のポリシーの違反に関する報告の合計、強制執行を受けたコンテンツ、強制執行を受けた固有アカウントに関する世界および国レベルの情報をより多く記載しています。

コンテンツおよびアカウント違反の概要

2023年7月1日~12月31日、Snapは、報告が行われ、当社のコミュニティガイドラインに違反した全世界で5,376,714個のコンテンツに対して強制執行を行いました。

報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にポリシー違反のコンテンツが含まれていたことを意味します。報告されたコンテンツを執行するまでの所要時間の中央値は、約10分です。

児童の性的搾取と虐待への対策

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。

当社は、法律に従って、PhotoDNAロバストハッシュ一致やGoogleのChild Sexual Abuse Imagery(CSAI)などのアクティブテクノロジー検出ツールを使用して、児童の性的虐待に関する既知の違法な画像や動画を特定・報告し、全米行方不明・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。

2023年下半期、当社は、報告された児童の性的搾取および虐待違反の59%を積極的に検出し、対応しました。これは、Snapchatユーザーの報告オプションの強化、Snapchatで送信されたCSEAの可視性が向上したことによるもので、前期比で合計39%減少しています。

*NCMECへの提出1回につき複数のコンテンツが含まれている場合があります。NCMECに提出された個別のメディアコンテンツの合計数は、当社が対抗措置をとったコンテンツの合計数と一致します。また、NCMECに提出されたもののうち、撤回されたものはこの数字から除外しています。

自傷行為および自殺に関するコンテンツ

当社は、Snapchatユーザーのメンタルヘルスや幸福について深い関心を払っています。そのため、Snapchatの構築に関する当社の決定をさまざまな方法でお知らせしています。実際の友人間でのコミュニケーションのためにデザインされたプラットフォームとして、Snapchatは、困難な場面に遭遇したときに相互に助け合う力を発揮するというユニークな役割を果たすことができると、当社では考えています。

トラスト&セーフティチームが困難な状況にあるSnapchatユーザーを認識した場合、自傷行為の防止とサポートのためのリソースを転送し、必要に応じて緊急対応担当者に通知することができます。当社が共有するリソースは、当社の安全リソースのグローバルなリストに掲載されています。これらは、すべてのSnapchatユーザーに公開されています。

アピール

前回の報告では、不服申し立てに関する指標を紹介し、アカウントに対する最初のモデレーションの決定を再検討するようユーザーが求めた回数を強調しました。この報告では、アカウントレベルの違反に関するポリシーカテゴリをすべて把握するために、不服申し立てを拡大しました。

* 児童の性的搾取に関連するコンテンツや活動の拡散を阻止することは最優先事項です。Snapはこのような目標に多大なリソースを割いており、そのような行為に対してゼロトレランスを持っています。 CSE申し立ての審査には特別な訓練が必要であり、その内容の生々しさゆえに、これらの審査を担当する捜査官のチームは限られています。 2023年秋、Snapは特定のCSE執行の一貫性に影響を与えるポリシー変更を実施し、エージェントの再トレーニングと品質保証を通じてこれらの矛盾に対処しました。 Snapの次回の透明性レポートでは、CSE申し立てへの対応時間の改善と、初回強制執行の精度向上に向けた進捗が明らかになると期待しています。

地域および国の概要

本項では、当社のトラスト&セーフティチームが、積極的にまたはアプリ内違反の報告に応じて、コミュニティガイドラインの実施に関するアクションの概要を説明します。 当社のコミュニティガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。

すべてのEU加盟国を含む各国に関する情報は、添付のCSVファイルからダウンロードできます。

トラスト&セーフティチームのコミュニティガイドラインの実施に関するアクションの概要

児童の性的搾取と虐待への対策

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。

当社は、法律に従って、PhotoDNAロバストハッシュ一致やGoogleのChild Sexual Abuse Imagery(CSAI)などのアクティブテクノロジー検出ツールを使用して、児童の性的虐待に関する既知の違法な画像や動画を特定・報告し、全米行方不明・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。

2023年下半期、当社は、報告された児童の性的搾取および虐待違反の59%を積極的に検出し、対応しました。これは、Snapchatユーザーの報告オプションの強化、Snapchatで送信されたCSEAの可視性が向上したことによるもので、前期比で合計39%減少しています。

児童の性的搾取と虐待への対策

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。

当社は、法律に従って、PhotoDNAロバストハッシュ一致やGoogleのChild Sexual Abuse Imagery(CSAI)などのアクティブテクノロジー検出ツールを使用して、児童の性的虐待に関する既知の違法な画像や動画を特定・報告し、全米行方不明・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。

2023年下半期、当社は、報告された児童の性的搾取および虐待違反の59%を積極的に検出し、対応しました。これは、Snapchatユーザーの報告オプションの強化、Snapchatで送信されたCSEAの可視性が向上したことによるもので、前期比で合計39%減少しています。

広告モデレーション

Snapは、すべての広告が当社の広告ポリシーに完全に準拠していることの確認に取り組んでいます。当社は、広告に対して責任と敬意のあるアプローチを採用することで、すべてのユーザーに安全で楽しい体験を提供できると信じています。 以下には、Snapchatにおける有料の広告モデレーションに関する洞察が含まれています。Snapchatの広告は、虚偽のコンテンツ、アダルトコンテンツ、暴力的または不快なコンテンツ、ヘイトスピーチ、知的財産権侵害など、Snapの広告ポリシーに記載されているように、さまざまな理由で削除される場合があります。さらに、この透明性レポートのナビゲーションバーからSnapchatの広告ギャラリーを見つけることができます。