透明性レポート

2022年7月1日~2022年12月31日

リリース日:

2023年6月15日

更新日:

2023年6月15日

Snapでは、安全性への取り組みおよび当社のプラットフォームで報告されたコンテンツの性質とボリュームについてのインサイトを提供するために、透明性レポートを年2回公開しています。当社は、コンテンツの適切さ、法律に基づいた業務慣行、並びにコミュニティにおける幸福について深い関心をお寄せいただいている多くのステークホルダーに対して、より包括的かつ有益な情報提供を継続して行っていきます。

本レポートは、2022年下半期(7月1日~12月31日)を対象としています。これまでの報告書と同様に、当社で受理または対処したアプリ内コンテンツやアカウントレベルのレポートについて、ポリシー違反の特定カテゴリー、法執行機関や政府からの要請への対応、そして当社の対処方法に関して国別に報告しています。Snapchatコンテンツの違反動画視聴率、潜在的な商標違反、プラットフォーム上での虚偽情報の発生など、本報告書への新しい追加情報も含まれています。

透明性レポートを継続的改善するための継続的な取り組みの一環として、今回のリリースでは、いくつかの新しい要素を導入しています。「コンテンツとアカウント違反の分析」というセクションを追加し、以前のレポート期間と比較した主要なデータの変更を評価しました。

さらに、ランディングページと国のサブページの両方で、コンテンツおよびアカウント違反テーブルにデータを提示する方法を更新しました。これまで、当社では、コンテンツ執行力が大きいものから弱いものへと順位付けをしていました。一貫性を改善するために、当社の順位付けは、今ではコミュニティガイドラインを反映するようになりました。これは、Snapの安全諮問委員会が提案した結果であり、Snapchatコミュニティの安全を維持するための方法について、独立した教育、課題提起、および助言を行っています。

最後に、用語集を更新し、コミュニティガイドライン解説へのリンクを追加しました、これにより、プラットフォームポリシーと運用への取り組みに関するコンテキストが追加されました。

オンラインにおける危険に対処するためのポリシーや、報告慣行の改善を続けるための計画の詳細については、本透明性レポートについての、最近の安全性と影響に関するブログをご覧ください。

Snapchatの安全性とプライバシーに関する追加リソースについては、ページ下部の透明性の報告についてタブをご覧ください。

コンテンツおよびアカウント違反の概要

2022年7月1日~2022年12月、Snapは、当社のポリシーに違反した全世界で6,360,594件のコンテンツに対して施行されました。

報告期間中の違反視聴率(VVR)は0.03%でした。これはSnapchat上のSnapおよびストーリー再生1万件のうち、3件にポリシー違反のコンテンツが含まれていたことを意味します。

*虚偽の情報に対して正確かつ一貫して執行することは、最新情報と継続的な努力を必要とする動的なプロセスです。当社は、このカテゴリにおけるエージェントの努力の精度を継続的に改善するよう努めています。2022 年上半期以降、統計的に重要な虚偽情報の取り締まりの厳格な品質保証レビューに基づいて推定された「コンテンツの取締り」および「特定アカウントの取締り」カテゴリの数値を報告することを選択しました。具体的には、各国の虚偽情報取締りのうち、統計的に有意な部分をサンプリングし、取締りの判断の質をチェックします。 そして、品質チェックされた実施状況をもとに、95%信頼区間(誤差±5%)の実施率を算出し、透明性レポートで報告される虚偽情報の実施状況の算出に使用しています。

コンテンツとアカウント違反の分析

このサイクルでは、コンテンツとアカウントレポートの合計が38%増加しました。これは、アカウントのアプリ内レポートメニューの更新に起因する可能性があり、これにより、Snapchatユーザーにレポートオプションをさらに提供できます。その結果、規制されたコンテンツが12%増加し、規制された特定アカウントが40%増加しました。特に、Snapchatユーザーの報告では「ハラスメント&いじめ」および「その他の規制商品」カテゴリにおけるコンテンツやアカウントが増え、レポート数は、それぞれ300%~100%増加し、コンテンツに対する執行においては、それぞれ83%から86%増加しました。また、スパムに関して、レポートが68%増加し、コンテンツに対する執行においては、88%増加が見られました。

さらに、コンテンツとアカウントレポートの数が増えることで、コンテンツとアカウントに対して執行をするまでに要する時間が増加しました。すべてのコンテンツとアカウントに対応するまでの平均所要時間は、すべてのカテゴリで1時間未満です。

総合すると、全般的な増加が見られましたが、プラットフォーム上に表示される違反を積極的かつ正確に報告するために、コミュニティが使用するツールを継続的に改善することが重要だと考えています

児童の性的搾取と虐待への対策

児童の性的搾取と虐待への対策

当社のコミュニティのメンバー、特に未成年者に対する性的搾取は違法かつ著しく不快な行為であり、当社のコミュニティガイドラインによって禁止されています。当社のプラットフォームにおける児童性的搾取・虐待画像(CSEAI)の防止、検出、撲滅は、Snapの最優先事項であり、これらの犯罪やその他の犯罪に対処するための能力を継続的に進化させています。

当社のトラスト&セーフティチームは、PhotoDNAの堅牢なハッシュマッチングおよびGoogleの児童性的虐待画像(CSAI)マッチなどのアクティブなテクノロジー検出ツールを使用して、児童性的虐待の既知の違法画像やビデオをそれぞれ特定し、法律で義務付けられている場合、全米行方不明・被搾取児童センター(NCMEC)に報告します。そして、NCMECは必要に応じて国内または国際的な法執行機関と連携しています。

2022年下半期、当社は、ここに報告された児童の性的搾取および虐待違反の94%を積極的に検出し、対応しました。

**NCMECへの提出それぞれに複数のコンテンツが含まれている場合があります。NCMECに提出された個別のメディアコンテンツの合計数は、当社が対抗措置をとったコンテンツの合計数と一致します。

テロリストおよび暴力的過激主義に関するコンテンツ

テロリストおよび暴力的過激主義に関するコンテンツ

報告期間中に、当社は、テロリストおよび暴力的な過激派コンテンツを禁止するポリシーに違反した132アカウントを削除しました。

Snapでは、複数のチャンネルを通じて報告されたテロリストと暴力的な過激派コンテンツを削除します。これには、アプリ内の報告メニューを通じてテロや暴力的過激派のコンテンツを報告するようユーザーに促すことや、Snapに掲載される可能性のあるテロや暴力的過激派のコンテンツに対処するために法執行機関と緊密に連携することが含まれます。

自傷行為および自殺に関するコンテンツ

自傷行為および自殺に関するコンテンツ

当社は、Snapchatユーザーのメンタルヘルスや幸福について深い関心を払っています。そのため、Snapchatの構築に関する当社の決定をさまざまな方法でお知らせしています。実際の友人間でのコミュニケーションのためにデザインされたプラットフォームとして、Snapchatは、困難な場面に遭遇したときに相互に助け合う力を発揮するというユニークな役割を果たすことができると、当社では考えています。

当社のトラスト&セーフティチームが、困難な状況にあるSnapchatユーザーを認識した場合、自傷行為の防止とサポートのためのリソースを転送し、必要に応じて緊急対応担当者に通知することができます。当社が共有するリソースは、当社の安全リソースのグローバルなリストに掲載されています。これらは、すべてのSnapchatユーザーに公開されています。

国の概要

ここでは、サンプリングされた地域内における当社のコミュニティガイドラインの実施概要についてご説明します。当社のガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。

個々の国の情報は、添付のCSVファイルでダウンロードできます: