Privacy and Safety Hub

Наш отчёт о правительственных запросах за первое полугодие 2022 г.

29 ноября 2022 г.

Сегодня мы публикуем актуальный отчёт о прозрачности запросах, который охватывает первое полугодие 2022 г.
Для компании Snap безопасность и благополучие нашего сообщества являются главным приоритетом, и наши отчеты о прозрачности, составляемые два раза в год, являются важным инструментом, который мы используем для обмена ключевой информацией и обеспечения подотчетности.
Начиная с нашего первого отчета о прозрачности в 2015 году, мы стремимся сделать каждый отчет более информативным, наглядным и эффективным, чем предыдущий. В последнем отчете мы внесли различные дополнения и улучшения, чтобы помочь нашему сообществу лучше понять отчетность и выполнить свое обязательство сделать эти отчеты более полными и информативными.
Обеспечение доступности данных о ложной информации на уровне страны
Впервые мы вводим раздел "Ложная информация" в качестве отдельной категории, доступной на уровне страны, основываясь на нашей предыдущей практике сообщения о ложной информации на глобальном уровне. Мы являемся одной из единственных платформ, предоставляющих эту информацию по странам. В этом полугодии мы зафиксировали в общей сложности 4 877 единиц ложного или вводящего в заблуждение контента как потенциально опасного или вредоносного. Мы всегда придерживались иного подхода к предотвращению распространения ложной информации на Snapchat, начиная с дизайна нашей платформы. В Snapchat не допустимо, чтобы непроверенный контент становился вирусным, и когда мы находим контент, нарушающий Правила сообщества, наша политика состоит в том, чтобы удалить его, немедленно снизив риск его более широкого распространения. Наш подход к борьбе с контентом, содержащим ложную информацию, столь же прост: мы удаляем его.
В связи с недавними промежуточными выборами в США и другими выборами, проходящими по всему миру, мы считаем ценными подробные данные по конкретным странам о нашей правоприменительной практике в отношении ложной информации. Подробнее о том, как мы предотвращаем распространение ложной информации на Snapchat, вы можете прочитать здесь.
Борьба с сексуальной эксплуатацией и насилием над детьми
Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление изображений сексуальной эксплуатации и насилия над детьми (CSEAI) на нашей платформе является для нас главным приоритетом, и мы постоянно совершенствуем свои возможности, чтобы помочь бороться с этим видом насилия на платформе. В первом полугодии 2022 года мы заблаговременно обнаружили и приняли меры в отношении 94 % нарушений, связанных с материалами о сексуальной эксплуатации и жестоком обращении с детьми, о которых здесь сообщалось. Это на 6 % больше с момента публикации нашего предыдущего отчёта.
Мы также предоставляем обновленные формулировки и более подробную информацию о наших усилиях по борьбе с CSEAI. Сейчас мы делимся общим количеством контента CSEAI, который мы удалили, а также общим количеством отчетов CSEAI, которые наши группы доверия и безопасности направили в Национальный центр США по делам пропавших без вести и эксплуатируемых детей (NCMEC).
Представляем глоссарий определений политик и данных
Мы добавили глоссарий определений политик и данных, который в будущем будет включен во все отчеты. Наша цель в этом глоссарии — обеспечить большую прозрачность используемых нами терминов и показателей, четко указав, какие формы нарушающего контента включаются и применяются к каждой категории. Например, если читатели не уверены, что именно мы имеем в виду под "Угрозами и насилием", "Высказываниями ненависти", "Другими регулируемыми товарами" или другими категориями контента, они могут легко обратиться к глоссарию за описанием.
Упреждающее удаление нарушающего законодательство контента
Рассматривая данные отчета, важно также отметить, что цифры общего количества сообщений и правоприменения учитывают только тот контент, о котором нам сообщили. Здесь не учитываются случаи, когда Snap заранее обнаруживал и принимал меры против контента до того, как о нем сообщили нам. Мы считаем, что внесенные нами улучшения по упреждающему обнаружению сыграли большую роль в снижении общего количества сообщений, числа правоприменений и времени обработки по сравнению с нашим последним отчетом в ключевых категориях. Поскольку наши усовершенствованные инструменты автоматического обнаружения выявляли и удаляли контент до того, как он успевал попасть к снапчаттерам, наблюдалось снижение количества реактивного правоприменения в отношении контента (т.е. сообщений от снапчаттеров).
В частности, со времени нашего последнего отчета наблюдалось снижение на 44% случаев применения мер в отношении угрожающего и насильственного контента в сообщениях от снапчаттеров, а также снижение на 37% случаев применения мер в отношении контента, содержащего наркотики, и на 34% случаев применения мер в отношении контента, содержащего разжигание ненависти. В среднем, среднее время выполнения удаления нарушающего правила контента увеличилось на 33% по сравнению с прошлым полугодием и составляет чуть более одной минуты.
Хотя Snapchat развивался на протяжении многих лет, наша приверженность прозрачности и приоритету безопасности и благополучия нашего сообщества остается неизменной. Мы будем и дальше нести ответственность и сообщать о своих успехах.