Snapchatのモデレート、施行、およびアピール
コミュニティガイドライン説明シリーズ
更新:2026年3月
Snapchat全体で、当社はコミュニティのプライバシーの利益を尊重しながら安全性を高めることにコミットしています。 当社は、潜在的な危害と戦うにあたり、透明なコンテンツモデレーションの慣行、一貫した公平な施行、およびポリシーを公正に適用する責任を負うための明確なコミュニケーションを組み合わせた、リスクに基づくバランスの取れたアプローチを採用しています。
コンテンツモデレーション
Snapchatは安全性を念頭に置いて設計されており、有害な可能性のあるコンテンツの拡散を防ぐ上で重要な鍵となっています。たとえば、Snapchatは、クリエイターが有害または各種ルールに違反する可能性のあるコンテンツを配信できるようなオープンニュースフィードは提供しておらず、またフレンドリストは非公開としています。
こういったデザインによる保護措置に加え、自動ツールと人力のレビューを組み合わせて、広く公開されているコンテンツ(スポットライト、パブリックストーリー、マップなど)をモデレーションしています。 公共空間でおすすめされるコンテンツは、より高い基準に準拠しており、追加のガイドラインを満たしている必要があります。例えばスポットライトでは、クリエイターは創造的で楽しい動画を投稿して、Snapchatコミュニティと共有することができます。すべてのコンテンツは、人工知能などのテクノロジーによる自動化されたレビューの後に配信されます。Snapが多くのオーディエンスに配信されるようになる前に、人間のモデレーターによってレビューされます。 スポットライトのコンテンツをモデレーションするこの階層的なアプローチは、有害な可能性のあるコンテンツが拡散するリスクを軽減し、すべての人にとって楽しく前向きな体験を推進するのに役立ちます。
同様に、メディア企業が制作した編集コンテンツ(パブリッシャーストーリー、ショーなど)は、安全性とインテグリティに関してより高い基準が満たされています。さらに、有害なコンテンツを特定しやすくするために、ストーリーのような公共に開かれた、または可視性の高いサーフェス上で能動的な危害検出技術を活用し、有害なコンテンツ(違法薬物やその他違法な物品を宣伝しようとするアカウントなど)が検索結果に表示されないよう、キーワードフィルタリングを使用しています。
Snapchatに通報する
当社のすべての製品サーフェスで、ユーザーはポリシーに違反する可能性があるアカウントとコンテンツを報告できます。当社は、Snapchatユーザーの皆さんが機密レポートを安全チームに直接簡単に提出できるよう日々改善を重ねています。安全チームは報告を評価し、当社ポリシーに従って適切な措置を講じ、通常数時間以内に結果を報告当事者に通知するように訓練されています。(人工知能テクノロジーを使用して高精度のモデレーション決定ができる場合は、そのようにすることもあります。)
コミュニティガイドラインに違反するコンテンツが見つかった場合は、できるだけ早く通報してください。 アプリ内のコンテンツを通報すると、そのコンテンツが通常はデフォルトで削除される場合でも、確認および保持できます。有害なコンテンツや行動の報告の詳細については、サポートサイトのこのリソースを参照してください。また、違反コンテンツを特定・削除し、Snapchatでの安全と幸福を推進する取り組みについて、こちらから詳細をご覧いただけます。通報したコンテンツの調査結果について、質問や懸念事項がある場合は、当社のサポートサイトからご連絡ください。
報告を提出する場合、お客様は報告が自身の知識の最大限の範囲で完全かつ正確であることを証明していただく必要があります。 重複した報告や「スパム」の報告を繰り返し送信するなど、Snapの報告システムを悪用しないでください。 このような行為を行った場合、当社は報告の審査を優先しない権利を留保します。お客様が他人のコンテンツまたはアカウントに対して根拠のない報告を頻繁に提出する場合、当社は警告を送信した後、報告の審査を最大1年間一時的に停止し、深刻な場合はアカウントを無効化することがあります。
カリフォルニア州ビジネスおよび職業コード、ディビジョン8、第22.2.8章の規定に基づき、カリフォルニア州内に所在する幼稚園から高校までの学校の校長および同等の管理者、並びに同州在住の未成年者にサービスを提供するメンタルヘルスの専門家のために、専用の通報窓口を設けていますので、ご注意ください。 これらの通報手順に関する情報は、こちらをご覧ください。
Snapにおけるポリシーの適用
当社がSnapで大事にしているのは、一貫性をもって公正にポリシーを施行していくことです。当社は、コミュニティガイドラインの違反に対する適切な罰則を決定するにあたり、違反が行われた状況の背景、危害の重大性、およびアカウントの履歴を考慮します。
当社のアプローチは、深刻な被害をもたらしていると判断したアカウントは、速やかに無効にすることです。 重大な危害に該当する例には、子供の性的搾取または虐待、違法薬物の流通未遂、暴力的過激派またはテロリストの活動の助長などがあります。
当社のポリシーは、また、コミュニティガイドラインに違反するために作成または使用されるアカウントは、被害が重大ではない場合でも無効にすることです。 たとえば、違反に該当するユーザーIDや表示名を使用している場合、または違反コンテンツを複数投稿している場合、アカウントを直ちに無効化する場合があります。
当社のコミュニティガイドラインに違反するその他の事項について、Snapは一般的に以下の3つの部分からなる実施プロセスを適用します。
ステップ1:違反コンテンツを削除します。
ステップ2:Snapchatユーザーは、コミュニティガイドラインに違反したこと、コンテンツが削除されたこと、違反が繰り返された場合はアカウントが無効化されることを含む追加の強制措置が取られることを示す通知を受け取ります。
ステップ3:当社のチームはSnapchatユーザーのアカウントに対して「ストライク」を記録します。
ストライクは、特定のSnapchatユーザーによる違反の記録を作成します。 ストライクには、Snapchatユーザーへの通知が伴います。 Snapchatユーザーが一定期間内にストライクを大量に発生させた場合、そのユーザーのアカウントは無効化されます。 また、Snapchatユーザーが1回以上のストライクを発生させた場合、Snapchat上の特定の機能へのアクセスを制限したり、コンテンツの公開配信を制限したりする場合があります。 このストライクシステムは、当社がコミュニティガイドラインを一貫して適用し、ユーザーに警告および教育を行うことを保証するのに役立ちます。
コンテンツやアカウントが地域の法律に違反しているという通報を受けた場合、まずコミュニティガイドラインに照らしてコンテンツを審査します。 違反が見つからない場合、投稿したユーザーの管轄権に適用される法律に基づいて、コンテンツを審査します。 コンテンツが投稿したユーザーの現地の法律に基づいて違法であると判断された場合、人権尊重に対するSnapのコミットメントに沿って、コンテンツを削除するか、適切な執行措置を講じます。 また、上記と同様のストライクシステムを採用する場合があります。 コンテンツが投稿したユーザーの管轄区域では合法だが、報告したユーザーの管轄区域では違法または制限されている場合、コンテンツがグローバルに削除されなくても、影響を受ける管轄区域のコンテンツまたはアカウントの表示を減らすなど、ローカルに合わせた執行措置を講じる場合があります。
通知とアピールプロセス
当社は、Snapchatユーザーが強制措置が講じられた理由を明確に理解し、かつ不服申し立てをできるよう、Snapchatユーザーの権利を保護しながら、コミュニティの利益を守ることを目的とした通知およびアピールプロセスを確立しました。
当社はアカウントに対して罰則を科すかどうかを評価するにあたっては、当社のコミュニティガイドラインおよび利用規約を適用します。また、配信またはおすすめされるコンテンツのモデレーションにおいては、当社のコミュニティガイドライン、利用規約、およびおすすめの対象コンテンツガイドラインを適用します。当社の申し立てプロセスの仕組みについては、アカウントアピールとコンテンツアピールに関するサポート記事を作成しました。コミュニティガイドラインの違反に関連するSnapchatの異議申し立てはすべて、人間の審査員によって再調査が行われている点にご注意ください。 Snapchatがアカウントロックに対する不服申し立てを認めると、Snapchatユーザーのアカウントへのアクセスが復元されます。 申し立てが成功したか否かにかかわらず、当社は適時に申し立て当事者に私たちの決定を通知します。
申し立てに関するリクエストを繰り返し提出するなど、Snapの申し立てメカニズムを悪用しないでください。このような行為を行った場合、当社はリクエストの審査を優先しない権利を留保します。根拠のない申し立てを頻繁に提出する場合、当社は警告を送信した後、アピール(関連する要請を含む)の審査を最大1年間停止することがあります。