透明性レポート
2023年7月1日~2023年12月31日

リリース日:

2024年4月25日

更新日:

2024年4月25日

Snapでは、安全性への取り組みおよび当社のプラットフォームで報告されたコンテンツの性質とボリュームについてのインサイトを提供するために、この透明性レポートを年2回公開しています。当社は、コミュニティの安全と幸福、およびコンテンツの適切さや法律に基づいた業務慣行について深い関心をお寄せいただいている多くのステークホルダーに対して、より包括的かつ有益な情報提供を継続して行っていきます。

この透明性レポートは、2023年下半期(7月1日~12月31日)を対象としています。これまでの報告書と同様に、当社で受理または対処したアプリ内コンテンツやアカウントレベルのレポートについて、ポリシー違反の特定カテゴリー、法執行機関や政府からの要請への対応、そして当社の対処方法に関して国別に報告しています。

当社の透明性レポートを継続的に改善するという継続的な取り組みの一環として、今回のリリースではいくつかの新しい要素を導入しています。

1つ目に、テロリズムと暴力的過激主義および児童性的搾取と虐待(CSEA)の両方に関するコンテンツやアカウントに対する報告書と執行を含めるために、主要な表を拡大しました。以前の報告書では、これらの違反に対応して行われたアカウント削除を個別のセクションで強調していました。CSEAに対する積極的・消極的な取り組みや、NCMECへの報告については、引き続き別々のセクションで概説します。

2つ目に、不服申し立てに関する情報を拡大し、コミュニティガイドラインの強制執行による不服申し立てと復帰の総計について概説しています。

最後に、EU / 欧州連合のセクションを拡充し、SnapによるEUの取り組みに関する追加情報を提供しています。具体的には、最新のDSA透明性レポートと、CSEAメディアスキャンに関する追加の指標を公開しています。

オンラインにおける有害事象に対処するためのポリシーや報告慣行の改善を続けるための計画の詳細については、本透明性レポートについての最近の安全性と影響に関するブログをご覧ください。 Snapchatの安全性とプライバシーに関する追加リソースについては、ページ下部の透明性の報告についてタブをご覧ください。

この透明性レポートの最新版は、en-USロケールでご覧いただけます。

コンテンツおよびアカウント違反の概要

2023年7月1日~12月31日、Snapは、報告が行われ、当社のコミュニティガイドラインに違反した全世界で5,376,714個のコンテンツに対して強制執行を行いました。

報告期間中の違反視聴率(VVR)は0.01%でした。これはSnapchat上のSnapおよびストーリー再生1万回のうち、1回にポリシー違反のコンテンツが含まれていたことを意味します。報告されたコンテンツを執行するまでの所要時間の中央値は、約10分です。

コンテンツとアカウント違反の分析

当社の全体的な報告および執行率は、過去6カ月間とほぼ同じでした。このサイクルでは、コンテンツとアカウントレポートの合計が約10%増加しました。

この時期にイスラエルとハマスの紛争が始まり、その結果、違反コンテンツが増加しました。ヘイトスピーチに関連する報告の合計は61%増加し、ヘイトスピーチに関するコンテンツの強制執行の合計は97%増加し、固有アカウントの強制執行の合計は124%増加しました。テロリズムおよび暴力的過激主義の報告と強制執行も増加していますが、プラットフォームにおけるコンテンツの強制執行全体の0.1%未満です。当社のトラスト&セーフティチームは、Snapchatの安全性を維持するために、世界的な紛争の発生に対しては引き続き警戒を怠らないようにしていきます。また、透明性レポートを拡大し、テロリズムおよび暴力的過激主義のポリシーの違反に関する報告の合計、強制執行を受けたコンテンツ、強制執行を受けた固有アカウントに関する世界および国レベルの情報をより多く記載しています。

児童の性的搾取と虐待への対策

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待(CSEA)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。

当社は、法律に従って、PhotoDNAロバストハッシュ一致やGoogleのChild Sexual Abuse Imagery(CSAI)などのアクティブテクノロジー検出ツールを使用して、児童の性的虐待に関する既知の違法な画像や動画を特定・報告し、全米行方不明・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。

2023年下半期、当社は、報告された児童の性的搾取および虐待違反の59%を積極的に検出し、対応しました。これは、Snapchatユーザーの報告オプションの強化、Snapchatで送信されたCSEAの可視性が向上したことによるもので、前期比で合計39%減少しています。

*NCMECへの提出1回につき複数のコンテンツが含まれている場合があります。NCMECに提出された個別のメディアコンテンツの合計数は、当社が対抗措置をとったコンテンツの合計数と一致します。また、NCMECに提出されたもののうち、撤回されたものはこの数字から除外しています。

自傷行為および自殺に関するコンテンツ

当社は、Snapchatユーザーのメンタルヘルスや幸福について深い関心を払っています。そのため、Snapchatの構築に関する当社の決定をさまざまな方法でお知らせしています。実際の友人間でのコミュニケーションのためにデザインされたプラットフォームとして、Snapchatは、困難な場面に遭遇したときに相互に助け合う力を発揮するというユニークな役割を果たすことができると、当社では考えています。

トラスト&セーフティチームが困難な状況にあるSnapchatユーザーを認識した場合、自傷行為の防止とサポートのためのリソースを転送し、必要に応じて緊急対応担当者に通知することができます。当社が共有するリソースは、当社の安全リソースのグローバルなリストに掲載されています。これらは、すべてのSnapchatユーザーに公開されています。

アピール

前回の報告では、不服申し立てに関する指標を紹介し、アカウントに対する最初のモデレーションの決定を再検討するようユーザーが求めた回数を強調しました。この報告では、アカウントレベルの違反に関するポリシーカテゴリをすべて把握するために、不服申し立てを拡大しました。

* 児童の性的搾取に関連するコンテンツや活動の拡散を阻止することは最優先事項です。Snapはこのような目標に多大なリソースを割いており、そのような行為に対してゼロトレランスを持っています。 CSE申し立ての審査には特別な訓練が必要であり、その内容の生々しさゆえに、これらの審査を担当する捜査官のチームは限られています。 2023年秋、Snapは特定のCSE執行の一貫性に影響を与えるポリシー変更を実施し、エージェントの再トレーニングと品質保証を通じてこれらの矛盾に対処しました。 Snapの次回の透明性レポートでは、CSE申し立てへの対応時間の改善と、初回強制執行の精度向上に向けた進捗が明らかになると期待しています。

広告モデレーション

Snapは、すべての広告が当社の広告ポリシーに完全に準拠していることの確認に取り組んでいます。当社は、広告に対して責任と敬意のあるアプローチを採用することで、すべてのユーザーに安全で楽しい体験を提供できると信じています。 以下には、Snapchatにおける有料の広告モデレーションに関する洞察が含まれています。Snapchatの広告は、虚偽のコンテンツ、アダルトコンテンツ、暴力的または不快なコンテンツ、ヘイトスピーチ、知的財産権侵害など、Snapの広告ポリシーに記載されているように、さまざまな理由で削除される場合があります。さらに、この透明性レポートのナビゲーションバーからSnapchatの広告ギャラリーを見つけることができます。 

地域および国の概要

ここでは、サンプリングされた地域内における当社のコミュニティガイドラインの施行の概要についてご説明します。当社のガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。

すべてのEU加盟国を含む各国に関する情報は、添付のCSVファイルからダウンロードできます。