2021年上半期の透明性レポート

2021年11月22日

本日、今年1月1日~6月30日の期間を対象とした2021年上半期の 透明性レポート を公開します。最近のレポートと同様、今回のレポートでは期間中のコミュニティガイドラインの違反に関するデータ、特定の違反のカテゴリーにわたり受信、執行されたコンテンツレポートの数、法執行機関や政府からの要請に応答した方法を共有しています。当社の執行は国、Snapchatコンテンツの違反ビュー率、プラットフォーム上の虚偽の情報のインシデントによって区分されています。
この期間に関していくつかの更新を追加しました。当社の運用慣行と有効性に関する詳しい情報を提供するために、所要時間の中央値を時間単位から分単位に変更したことも含まれます。
毎日、Snapchatカメラを使用して平均50億以上のSnapが作成されています。2021年1月1日から6月30日まで、世界中でガイドラインに違反した6,629,165作品に対して執行措置が取られました。この期間中、違反ビューレート(VVR)は0.10%となりました。これは、Snap上の10,000ビューのうち10件がガイドラインに違反するコンテンツを含んでいたことを意味します。さらに、特に性的に露骨なコンテンツ、ハラスメントやいじめ、違法および偽造薬、その他の規制商品に関する違反の報告については、応答時間を大幅に改善しました。
児童の性的虐待材料に対処するための取り組み 
コミュニティの安全性は最優先事項です。本当のフレンドとコミュニケーションを図るために構築されたプラットフォームとして、当社はSnapchat上で見知らぬ人が若者を見つけることを難しくするよう意図的に設計しました。たとえば、Snapchatユーザーは互いのフレンドリストを表示することはできないほか、デフォルトではフレンド以外のユーザーからメッセージを受信することはできません。
当社はコミュニティのメンバー、特に未成年者に向けた虐待を許容する余地をゼロにしています。これは違法かつ受け入れられないことで、コミュニティガイドラインで禁止されています。当社は、児童性的虐待マテリアル(CSAM)やその他の種類の児童の性的搾取コンテンツを含むプラットフォーム上での虐待を防止、検出、撲滅する能力を進化させることで、これらの違反に対処するよう努めています。
当社のトラスト&セーフティチームは、PhotoDNAやChild Sexual Abuse Imagery(CSAI)技術など積極的な検出ツールを使用してCSAMに関する既知の違法な画像、動画を特定し、全米行方不明・搾取児童センター(NCMEC)に報告しています。NCMECはその後、国内または国際法執行機関と協力します。
2021年上半期には、グローバルな執行したアカウント総数の5.43%がCSAMを含んでいました。この内、当社はCSAM違反の70%を事前に検出し、対処しました。この積極的な検出能力の向上にCSAM拡散による協調的なスパム攻撃の増加が重なった結果、当報告期間においてこのカテゴリーは顕著に増加しました。
安全性の専門家とのパートナーシップおよびアプリ内の機能を継続的に拡大し、見知らぬ人と接触するリスクや、アプリ内の報告機能を使ってトラスト&セーフティチームにあらゆるタイプの懸念事項や虐待を知らせる方法について、Snapchatユーザーを啓蒙しています。さらに、当社の信頼できるTrusted Flagger Programにパートナーを追加し続けました。このプログラムは人命への差し迫った脅威やCSAMに関する事件などの緊急事態の悪化を報告するための秘密のチャンネルを安全性に熟知した専門家に提供しています。これらのパートナーと緊密に連携して、Snapchatコミュニティへのサポートを支援できるように、安全教育、ウェルネスリソース、その他の報告サポートを提供しています。
虚偽の情報の拡散への取り組み
この透明性レポートの対象となる期間は、公衆が正確で信頼できる情報にアクセスできることを確保する重要性をさらに示しています。当社は、Snapchatユーザーのコミュニティを民主的なプロセス、公衆衛生、新型コロナウイルス(COVID-19)に関する虚偽の情報から保護する新しい手段を定期的に評価、投資しています。
2021年上半期、世界中で合計2,597のアカウントとコンテンツについて虚偽の情報ガイドラインに違反したことに対処しました。違反件数は前回の報告期間のほぼ半数でした。ディスカバーおよびスポットライトのコンテンツは違反コンテンツの大規模な普及を防止するために積極的にモデレートされているため、これらの違反の大半はプライベートなスナップ、ストーリーから生じ、これらの違反の大半は自社の積極的なモデレーションの取り組みやSnapchatユーザーからの報告を通じて当社に知らされました。
有害コンテンツに関しては、ポリシーや執行措置を考えるだけでは不十分で、プラットフォームの基本的なアーキテクチャや製品設計についても検討する必要があると常に考えています。Snapchatは当初から従来のソーシャルメディアプラットフォームとは異なる方法で構築されており、誰もが節度なく誰に対しても配信する権利を有するオープンニュースフィードではなく、主なユースケースである親しい友人との会話をサポートするためのものです。Snapchatのデザイン自体が拡散性を制限しており、人間の最悪の本能に訴えるコンテンツに対するインセンティブを排除することで違法かつ有害なコンテンツの拡散が感染する懸念を抑えています。
このアプローチは、過激派のコンテンツの拡散を防止するための当社の取り組みにも用いられています。報告期間中、当社はテロリストや過激派のコンテンツの禁止に違反した5つのアカウントを削除しました。この削除数は、前回の報告期間から若干減少しています。Snapではこのスペースでの開発を定期的に監視し、プラットフォームでの不正使用のあらゆる潜在的なベクトルを軽減することを目指しています。プラットフォームアーキテクチャーとグループチャットの機能の設計は、いずれも有害なコンテンツや組織化する機会を制限するのに役立ちます。グループチャットを提供していますが、その規模は制限されており、アルゴリズムでは推奨されず、プラットフォーム上でその特定グループのメンバー以外の誰かには発見できません。
この期間中、コミュニティに対して新型コロナウイルスに関する事実上の公共安全情報を積極的に推進し続けました。これにはディスカバーの編集パートナーが提供するカバレッジ、公共広告(PSA)、公衆衛生当局、機関、医療専門家との質疑応答、拡張現実レンズやフィルターなどのクリエイティブツールが含まれており、いずれもSnapchatユーザーに専門的な公共衛生ガイダンスを周知するよう設計されています。今年初めには、米国で若者向けのワクチンが利用できるようになったため、 ホワイトハウス と共同でSnapchatユーザーに共通する疑問への答えを支える新しいイニシアチブを 開始した ほか、7月には英国の国民保健サービスと 協力し 同様の取り組みを進めました。
今後、当社は透明性レポートをオンラインの安全性、透明性、マルチセクターの説明責任を深く考慮する多くのステークホルダーにとって包括的かつ役立つものになるように継続的にコミットしていきます。当社は、有害なコンテンツや悪意を持つ人に対処するための包括的な取り組みをどのように強化できるかを常に評価しており、改善を定期的に支援している多くのセキュリティ、安全性のパートナーや協力者に感謝しています。
ニュースに戻る