透明性レポート
2023年1月1日~2023年6月30日
リリース日:
2023年10月25日
更新日:
2023年12月13日

Snapでは、安全性への取り組みおよび当社のプラットフォームで報告されたコンテンツの性質とボリュームについてのインサイトを提供するために、透明性レポートを年2回公開しています。当社は、コンテンツの適切さ、法律に基づいた業務慣行、並びにコミュニティにおける幸福について深い関心をお寄せいただいている多くのステークホルダーに対して、より包括的かつ有益な情報提供を継続して行っていきます。 
この透明性レポートは、2023年上半期(1月1日~6月30日)を対象としています。 これまでの報告書と同様に、当社で受理または対処したアプリ内コンテンツやアカウントレベルのレポートについて、ポリシー違反の特定カテゴリー、法執行機関や政府からの要請への対応、そして当社の対処方法に関して国別に報告しています。

当社の透明性レポートを継続的に改善するという継続的な取り組みの一環として、今回のリリースではいくつかの新しい要素を導入しています。私たちは、広告慣行やモデレーション、コンテンツやアカウントのアピールに関するデータポイントを追加しました。EUデジタルサービス法に合わせて、当社は、EU加盟国におけるコンテンツモデレーターの数や月間アクティブユーザー(MAU)など、EU加盟国における当社の事業に関する新しいコンテキスト情報を追加しました。 こうした情報の多くは、報告書全体や透明性センターのEU / 欧州連合専用ページでご覧いただけます。
最後に、用語集を更新し、コミュニティガイドライン解説へのリンクを追加しました、これにより、プラットフォームポリシーと運用への取り組みに関するコンテキストが追加されました。
オンラインにおける有害事象に対処するためのポリシーや報告慣行の改善を続けるための計画の詳細については、本透明性レポートについての最近の安全性と影響に関するブログをご覧ください。 
Snapchatの安全性とプライバシーに関する追加リソースについては、ページ下部の透明性の報告についてタブをご覧ください。
この透明性レポートの最新版は、en-USロケールでご覧いただけます。

コンテンツおよびアカウント違反の概要

2023年1月1日~6月30日、Snapは当社のポリシーに違反した全世界で6,216,118個のコンテンツに対して強制執行を行いました。
報告期間中の違反視聴率(VVR)は0.02%でした。これはSnapchat上のSnapおよびストーリー再生1万件のうち、2件にポリシー違反のコンテンツが含まれていたことを意味します。

コンテンツとアカウント違反の分析

当社の全体的な報告および執行率は、主要カテゴリーにはいくつかの例外を除いて、過去6カ月間とほぼ同じでした。 このサイクルでは、コンテンツとアカウントレポートと執行件数の合計が約3%減少しました。
最も顕著な変動があったカテゴリは、ハラスメントといじめ、スパム、武器、および虚偽情報でした。 ハラスメントといじめは、レポート総数が56%増加し、コンテンツとアカウントの強制力が39%増加しました。 これらの執行件数の増加と処理時間の46%の減少は、この種の違反コンテンツに対する執行においてチームが作業効率を上げたことを明確に示しています。 同様に、スパムレポートの総数が65%増加し、コンテンツ強制が110%増加し、ユニークアカウントが80%増加しました。一方、当社のチームではターンアラウンドタイムが80%短縮されました。 当社の武器カテゴリは、レポート総数が13%減少し、コンテンツ執行数が51%減少し、執行されたユニークアカウントが53%減少しました。 最後に、当社の虚偽情報カテゴリは、レポート総数が14%増加しましたが、コンテンツ強制が78%減少し、ユニークアカウントが74%減少しました。 これは、モデレーションチームがプラットフォーム上で誤った情報を正確にキャッチし、行動していることを確認するために、虚偽情報レポートに適用する品質アシュア(QA)プロセスとリソースの継続的な提供に起因する可能性があります。
全体として、前期とほぼ同じ数値が示されました。しかし、プラットフォームに表示された際に違反の可能性を積極的かつ正確に報告するためにコミュニティが使用するツールを改善し続けることが重要だと考えています。

児童の性的搾取と虐待への対策

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待画像(CSEAI)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。
当社は、法律に従って、PhotoDNAロバストハッシュ一致やGoogleのChild Sexual Abuse Imagery(CSAI)などのアクティブテクノロジー検出ツールを使用して、児童の性的虐待に関する既知の違法な画像や動画を特定・報告し、全米行方不明・被搾取児童センター(NCMEC)に報告しています。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。
2023年上半期、当社はここで報告された児童の性的搾取および虐待に関する法律違反行為のうち98%を積極的に検出し、対抗措置をとりました。この数字は前期比4%の増加です。
**NCMECへの提出それぞれに複数のコンテンツが含まれている場合があります。NCMECに提出された個別のメディアコンテンツの合計数は、当社が対抗措置をとったコンテンツの合計数と一致します。

自傷行為および自殺に関するコンテンツ

当社は、Snapchatユーザーのメンタルヘルスや幸福について深い関心を払っています。そのため、Snapchatの構築に関する当社の決定をさまざまな方法でお知らせしています。実際の友人間でのコミュニケーションのためにデザインされたプラットフォームとして、Snapchatは、困難な場面に遭遇したときに相互に助け合う力を発揮するというユニークな役割を果たすことができると、当社では考えています。
当社のトラスト&セーフティチームが、困難な状況にあるSnapchatユーザーを認識した場合、自傷行為の防止とサポートのためのリソースを転送し、必要に応じて緊急対応担当者に通知することができます。当社が共有するリソースは、当社の安全リソースのグローバルなリストに掲載されています。これらは、すべてのSnapchatユーザーに公開されています。

アピール

この報告書の時点で当社のポリシーに抵触してアカウントがロックされたユーザーによるアピール数について報告し始めています。 モデレーターが誤ってロックされたと判定したアカウントのみを復元します。 この期間中、当社は薬物コンテンツに関するアピールについて報告しています。  次の報告では、当社のポリシーに対する他の違反に起因するアピールに関するデータを公開することを楽しみにしています。
**NCMECへの提出それぞれに複数のコンテンツが含まれている場合があります。NCMECに提出された個別のメディアコンテンツの合計数は、当社が対抗措置をとったコンテンツの合計数と一致します。

広告モデレーション

Snapは、すべての広告が当社のプラットフォームポリシーに完全に準拠していることを確認することに取り組んでいます。 当社は、広告に対して責任ある敬意あるアプローチを採用することで、すべてのユーザーに安全で楽しい体験を提供できると信じています。 以下には、広告モデレーションに関する洞察が含まれています。 Snapchatの広告は、欺瞞コンテンツ、アダルトコンテンツ、暴力的または不快なコンテンツ、ヘイトスピーチ、知的財産権侵害など、Snapの広告ポリシーに記載されているように、さまざまな理由で削除される場合があります。さらに、この透明性レポートのナビゲーションバーからSnapchatの広告ギャラリーを見つけることができます。 

国の概要

ここでは、サンプリングされた地域内における当社のコミュニティガイドラインの実施概要についてご説明します。当社のガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。
個々の国の情報は、添付のCSVファイルでダウンロードできます: