ജൂൺ 20, 2025
ജൂലൈ 1, 2025
Snap- ന്റെ സുരക്ഷാ ശ്രമങ്ങളെക്കുറിച്ചുള്ള ഉൾക്കാഴ്ചകൾ നൽകുന്നതിന് വർഷത്തിൽ രണ്ടു തവണ ഞങ്ങൾ സുതാര്യതാ റിപ്പോർട്ട് പ്രസിദ്ധീകരിക്കുന്നു. സുരക്ഷയോടും സുതാര്യതയോടുമുള്ള ഞങ്ങളുടെ പ്രതിബദ്ധതയുടെ ഭാഗമായി, ഞങ്ങളുടെ ഉള്ളടക്ക മോഡറേഷൻ, നിയമ നിർവ്വഹണ സമ്പ്രദായങ്ങൾ, Snapchat കമ്മ്യൂണിറ്റിയുടെ സുരക്ഷയും ക്ഷേമവും എന്നിവയെക്കുറിച്ച് അതീവ താല്പര്യമുള്ള നിരവധി പങ്കാളികൾക്ക് ഈ റിപ്പോർട്ടുകൾ കൂടുതൽ സമഗ്രവും, വിജ്ഞാനപ്രദവുമാക്കാൻ ഞങ്ങൾ നിരന്തരം ശ്രമിച്ചുകൊണ്ടിരിക്കുന്നു.
ഈ സുതാര്യതാ റിപ്പോർട്ടിൽ 2024-ന്റെ രണ്ടാം പകുതി (ജൂലൈ 1 - ഡിസംബർ 31) ഉൾക്കൊള്ളുന്നു. ഉപയോക്താക്കളുടെ റിപ്പോർട്ടുകളെ കുറിച്ചും Snap-ന്റെ മുൻകൂട്ടിയുള്ള കണ്ടെത്തലിനെക്കുറിച്ചും ഉള്ള ആഗോള ഡാറ്റ ഞങ്ങൾ പങ്കിടുന്നു; കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശ ലംഘനങ്ങളുടെ നിർദ്ദിഷ്ട വിഭാഗങ്ങളിൽ ഉടനീളം ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ സ്വീകരിച്ച നടപടികൾ; നിയമപാലകരിൽ നിന്നും സർക്കാരുകളിൽ നിന്നുമുള്ള അഭ്യർത്ഥനകളോട് ഞങ്ങൾ എങ്ങനെയാണ് പ്രതികരിച്ചത്; പകർപ്പവകാശ, വ്യാപാരമുദ്ര ലംഘന അറിയിപ്പുകളോട് ഞങ്ങൾ എങ്ങനെയാണ് പ്രതികരിച്ചത് എന്നിവയും ഞങ്ങൾ പങ്കിടുന്നു. ലിങ്ക് ചെയ്ത പേജുകളുടെ ഒരു പരമ്പരയായി രാജ്യം തിരിച്ച് ഉൾക്കാഴ്ചകളും ഞങ്ങൾ നൽകുന്നു.
Snapchat-ലെ സുരക്ഷയ്ക്കും സ്വകാര്യതയ്ക്കുമായുള്ള അധിക ഉറവിടങ്ങൾ കണ്ടെത്താൻ, പേജിന്റെ ചുവടെയുള്ള ഞങ്ങളുടെ "എബൌട്ട് ട്രാൻസ്പാരൻസി റിപ്പോർട്ടിംഗ്" ("സുതാര്യത റിപ്പോർട്ടിംഗിനെ കുറിച്ച്") എന്ന ടാബ് കാണുക.
ഈ സുതാര്യതാ റിപ്പോർട്ടിന്റെ ഏറ്റവും പുതിയ പതിപ്പ് ഇംഗ്ലീഷ് പതിപ്പാണെന്ന് ദയവായി ശ്രദ്ധിക്കുക.
ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ നടപ്പിലാക്കാൻ വേണ്ടി ഞങ്ങളുടെ ട്രസ്റ്റ് ആൻഡ് സേഫ്റ്റി ടീമുകൾ എടുത്ത നടപടികളുടെ പൊതു അവലോകനം
ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ മുൻകൂട്ടിയും (ഓട്ടോമേറ്റഡ് ഡിറ്റക്ഷൻ ടൂളുകൾ ഉപയോഗിച്ച്) പ്രതികരണാത്മമായും (റിപ്പോർട്ടുകൾക്ക് മറുപടിയായി) നടപ്പാക്കുന്നു, ഈ റിപ്പോർട്ടിന്റെ തുടർന്നുള്ള ഭാഗങ്ങളിൽ ഇത് കൂടുതൽ വിശദീകരിക്കുന്നു. ഈ റിപ്പോർട്ടിംഗ് സൈക്കിളിൽ (H2 2024), ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ ഇനിപ്പറയുന്ന എണ്ണം നിയമനടപടികൾ സ്വീകരിച്ചു:
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
10,032,110
5,698,212
കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശ ലംഘനങ്ങളുടെ ഓരോ തരത്തെയും കുറിച്ചുള്ള ഒരു വിശകലനം താഴെ കൊടുക്കുന്നു, ലംഘനം ഞങ്ങൾ കണ്ടെത്തിയ സമയത്തിനും (മുൻകൂട്ടിയോ അതോ റിപ്പോർട്ട് ലഭിച്ചപ്പോഴോ) പ്രസക്തമായ ഉള്ളടക്കത്തിലോ അക്കൗണ്ടിലോ അന്തിമ നടപടി സ്വീകരിച്ച സമയത്തിനും ഇടയിലുള്ള ശരാശരി ടേൺഅറൗണ്ട് സമയം ഇതിൽ ഉൾപ്പെടുന്നു:
നയ കാരണം
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
കണ്ടെത്തുന്നതു മുതൽ അവസാന പ്രവർത്തനം പൂർത്തീകരിക്കുന്നതുവരെ എടുക്കുന്ന ശരാശരി സമയം (മിനിറ്റുകളിൽ)
ലൈംഗിക ഉള്ളടക്കം
3,860,331
2,099,512
2
കുട്ടികളുടെ ലൈംഗിക ചൂഷണം
961,359
577,682
23
ഉപദ്രവവും ഭീഷണിപ്പെടുത്തലും
2,716,966
2,019,439
7
ഭീഷണികളും അതിക്രമവും
199,920
156,578
8
സ്വയം ഉപദ്രവവും ആത്മഹത്യയും
15,910
14,445
10
തെറ്റായ വിവരങ്ങൾ
6,539
6,176
1
ആൾമാറാട്ടം
8,798
8,575
2
സ്പാം
357,999
248,090
1
മയക്കുമരുന്നുകൾ
1,113,629
718,952
6
ആയുധങ്ങൾ
211,860
136,953
1
മറ്റ് നിയന്ത്രിത ചരക്കുകൾ
247,535
177,643
8
വിദ്വേഷ സംഭാഷണം
324,478
272,025
27
ഭീകരതയും അക്രമാസക്തമായ തീവ്രവാദവും
6,786
4,010
5
റിപ്പോർട്ടിംഗ് കാലയളവിൽ, 0.01 ശതമാനം ലംഘന കാഴ്ചാ നിരക്ക് (VVR) ഞങ്ങൾ കണ്ടു, അതായത് Snapchat-ലെ ഓരോ 10,000 സ്നാപ്പ് , സ്റ്റോറി കാഴ്ചകളിൽ, ഒരെണ്ണത്തിൽ ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ ലംഘിക്കുന്ന ഉള്ളടക്കം ഉൾക്കൊള്ളുന്നു.
ഞങ്ങളുടെ ട്രസ്റ്റ്, സുരക്ഷാ ടീമുകൾക്ക് റിപ്പോർട്ട് ചെയ്ത കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശ ലംഘനങ്ങൾ
2024 ജൂലൈ 1 മുതൽ ഡിസംബർ 31 വരെയുള്ള കാലയളവിൽ, ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ ലംഘിച്ചതിനെക്കുറിച്ച് ആപ്പില് ലഭിച്ച റിപ്പോർട്ടുകളെ തുടർന്ന്, Snap-ൻെറ സേഫ്റ്റി ടീമുകൾ ആഗോളതലത്തിൽ 6,346,508 എൻഫോഴ്സ്മെന്റ് നടപടികൾ സ്വീകരിച്ചു. ഇതിൽ 4,075,838 അദ്വിതീയ അക്കൗണ്ടുകൾക്കെതിരായ നടപടികളും ഉൾപ്പെടുന്നു. ആ റിപ്പോർട്ടുകൾക്ക് മറുപടിയായി എൻഫോഴ്സ്മെന്റ് നടപടി സ്വീകരിക്കുന്നതിന് വേണ്ടി ഞങ്ങളുടെ സേഫ്റ്റി ടീമുകൾ എടുത്ത ശരാശരി സമയം ~6 മിനിറ്റായിരുന്നു. ഓരോ റിപ്പോർട്ടിംഗ് വിഭാഗത്തിനുമായി വിശദാംശങ്ങൾ താഴെ കൊടുത്തിരിക്കുന്നു.
മൊത്തം ഉള്ളടക്ക റിപ്പോർട്ടുകളും അക്കൗണ്ട് റിപ്പോർട്ടുകളും
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
19,379,848
6,346,508
4,075,838
നയ കാരണം
ഉള്ളടക്ക റിപ്പോർട്ടുകളും അക്കൗണ്ട് റിപ്പോർട്ടുകളും
മൊത്തം നടപടികൾ
Snap നടപ്പിലാക്കിയ മൊത്തം റിപ്പോർട്ടുകളുടെ %
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
കണ്ടെത്തുന്നതു മുതൽ അവസാന പ്രവർത്തനം പൂർത്തീകരിക്കുന്നതുവരെ എടുക്കുന്ന ശരാശരി സമയം (മിനിറ്റുകളിൽ)
ലൈംഗിക ഉള്ളടക്കം
5,251,375
2,042,044
32.20%
1,387,749
4
കുട്ടികളുടെ ലൈംഗിക ചൂഷണം
1,224,502
469,389
7.40%
393,384
133
ഉപദ്രവവും ഭീഷണിപ്പെടുത്തലും
6,377,555
2,702,024
42.60%
2,009,573
7
ഭീഷണികളും അതിക്രമവും
1,000,713
156,295
2.50%
129,077
8
സ്വയം ഉപദ്രവവും ആത്മഹത്യയും
307,660
15,149
0.20%
13,885
10
തെറ്റായ വിവരങ്ങൾ
536,886
6,454
0.10%
6,095
1
ആൾമാറാട്ടം
678,717
8,790
0.10%
8,569
2
സ്പാം
1,770,216
180,849
2.80%
140,267
1
മയക്കുമരുന്നുകൾ
418,431
244,451
3.90%
159,452
23
ആയുധങ്ങൾ
240,767
6,473
0.10%
5,252
1
മറ്റ് നിയന്ത്രിത ചരക്കുകൾ
606,882
199,255
3.10%
143,560
8
വിദ്വേഷ സംഭാഷണം
768,705
314,134
4.90%
263,923
27
ഭീകരതയും അക്രമാസക്തമായ തീവ്രവാദവും
197,439
1,201
<0.1%
1,093
4
മുൻ റിപ്പോർട്ടിംഗ് കാലയളവുമായി താരതമ്യപ്പെടുത്തുമ്പോൾ, എല്ലാ പോളിസി വിഭാഗങ്ങളിലും ഉടനീളം ശരാശരി ടേൺഅറൗണ്ട് സമയം ഞങ്ങൾ 90% കുറച്ചു. ഞങ്ങളുടെ അവലോകന ശേഷി വിപുലീകരിക്കുന്നതിനും നാശനഷ്ടത്തിന്റെ തീവ്രതയെ അടിസ്ഥാനമാക്കി റിപ്പോർട്ടുകളുടെ മുൻഗണന മെച്ചപ്പെടുത്തുന്നതിനും ഉള്ള ഞങ്ങളുടെ സംയോജിത ശ്രമത്തിന്റെ ഫലമായാണ് ഈ കുറവ് പ്രധാനമായും ഉണ്ടായത്. റിപ്പോർട്ടിംഗ് കാലയളവിൽ ഞങ്ങളുടെ സുരക്ഷാ ശ്രമങ്ങളിൽ ലക്ഷ്യപരമായ നിരവധി മാറ്റങ്ങളും ഞങ്ങൾ വരുത്തി, അത് ഇവിടെ റിപ്പോർട്ടുചെയ്ത ഡാറ്റയെ സ്വാധീനിച്ചു. ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ ലംഘിക്കുന്ന ഉപയോക്തൃനാമങ്ങൾക്കും പ്രദർശന പേരുകൾക്കുമായി അക്കൗണ്ടുകൾക്കെതിരെ നടപടിയെടുക്കാനുള്ള ഞങ്ങളുടെ ശ്രമങ്ങളുടെ വിപുലീകരണം, Snapchat-ലെ കമ്മ്യൂണിറ്റികൾക്കായി വർദ്ധിച്ച റിപ്പോർട്ടിംഗും പരിരക്ഷകളും അവതരിപ്പിക്കൽ, വോയ്സ്നോട്ടുകൾ പോലുള്ള അധികതരം മീഡിയകൾക്കായി ആപ്പിൽ ഞങ്ങൾക്ക് നേരിട്ട് റിപ്പോർട്ട് ചെയ്യാനുള്ള ഓപ്ഷനുകൾ അവതരിപ്പിക്കൽ എന്നിവ ഉൾപ്പെടുന്നു.
മുൻ റിപ്പോർട്ടിംഗ് കാലയളവുമായി താരതമ്യപ്പെടുത്തുമ്പോൾ ഈ മാറ്റങ്ങളും മറ്റ് സുരക്ഷാ ശ്രമങ്ങളും ബാഹ്യ ശക്തികളും ചില നയ മേഖലകളെ പ്രത്യേകിച്ച് ബാധിച്ചു. ഈ പോളിസി വിഭാഗങ്ങളിൽ ഇവ ഉൾപ്പെടുന്നു: സംശയാസ്പദമായ കുട്ടികളുടെ ലൈംഗിക ചൂഷണവും ദുരുപയോഗവും (CSEA) എന്നിവയുമായി ബന്ധപ്പെട്ട ഉള്ളടക്കം, ഹാനികരമായ തെറ്റായ വിവരങ്ങൾ, സ്പാം. പ്രത്യേകിച്ചും:
CSEA: 2024-ന്റെ രണ്ടാം പകുതിയിൽ, CSEA-മായി ബന്ധപ്പെട്ട റിപ്പോർട്ടുകളിൽ 12% കുറവ് ഞങ്ങൾ നിരീക്ഷിച്ചു, കൂടാതെ റിപ്പോർട്ട് ചെയ്ത CSEA-യോട് പ്രതികരിക്കുന്നതിനുള്ള ഞങ്ങളുടെ ശരാശരി ടേൺഅറൗണ്ട് സമയം 99% കുറച്ചു. ഈ പ്രവണതകൾക്ക് പ്രധാന കാരണം മുൻകൂട്ടി കണ്ടുപിടിക്കാനുള്ള സംവിധാനങ്ങൾ ഞങ്ങൾ മെച്ചപ്പെടുത്തിയതാണ്. ഇത് CSEA ഉള്ളടക്കം ആരെങ്കിലും റിപ്പോർട്ട് ചെയ്യുന്നതിന് മുമ്പ് നീക്കം ചെയ്യാൻ ഞങ്ങളെ പ്രാപ്തരാക്കി. കൂടാതെ CSEA റിപ്പോർട്ടുകൾ അവലോകനം ചെയ്യാനും അവയിൽ നടപടിയെടുക്കാനുമുള്ള ഞങ്ങളുടെ പ്രക്രിയകളിൽ വരുത്തിയ മെച്ചപ്പെടുത്തലുകളും ഇതിന് കാരണമായി. ഈ മെച്ചപ്പെടുത്തലുകൾ ഉണ്ടെങ്കിലും, പ്രത്യേക പരിശീലനം ലഭിച്ച ഏജന്റുമാരുടെ തിരഞ്ഞെടുത്ത ടീമിനൊപ്പം ഇരട്ട അവലോകനം ഉൾപ്പെടുന്ന ഒരു പ്രത്യേക പ്രക്രിയയ്ക്ക് ഉള്ളടക്കം വിധേയമായതിനാൽ ഞങ്ങളുടെ CSEA ടേൺഅറൗണ്ട് സമയം മറ്റ് പോളിസി മേഖലകളെ അപേക്ഷിച്ച് കൂടുതലാണ്.
ഹാനികരമായ തെറ്റായ വിവരങ്ങൾ: ഹാനികരമായ തെറ്റായ വിവരങ്ങളുമായി ബന്ധപ്പെട്ട റിപ്പോർട്ടുകളുടെ അളവിൽ 26% വർദ്ധനവ് ഞങ്ങൾ നിരീക്ഷിച്ചു, പ്രധാനമായും 2024 നവംബറിൽ നടന്ന യുഎസ് തിരഞ്ഞെടുപ്പ് ഉൾപ്പെടെയുള്ള രാഷ്ട്രീയ സംഭവങ്ങൾ ആണ് ഇതിന് കാരണം.
സ്പാം: ഈ റിപ്പോർട്ടിംഗ് കാലയളവിൽ, സംശയാസ്പദമായ സ്പാം റിപ്പോർട്ടുകളോടുള്ള പ്രതികരണമായി നടപ്പാക്കിയ മൊത്തം നടപടികളിൽ ~50% കുറവും നടപടികൾ നേരിട്ട അക്കൗണ്ടുകളിൽ ~46% കുറവും ഉണ്ടായി. ഇത് ഞങ്ങളുടെ മുൻകൂട്ടിയുള്ള കണ്ടെത്തൽ, നടപടി എടുക്കുന്നതിനുള്ള ഉപകരണങ്ങൾ എന്നിവയുടെ കാര്യക്ഷമത വർദ്ധിച്ചതായി സൂചിപ്പിക്കുന്നു. അക്കൗണ്ട് സിഗ്നലുകളിലൂടെ സ്പാം ലക്ഷ്യമിടുന്നതിനും പ്ലാറ്റ്ഫോമിലെ അവരുടെ പ്രവർത്തനത്തിൽ നിന്ന് സ്പാം ആക്റ്റർമാരെ ഉടൻ നീക്കം ചെയ്യുന്നതിനും ഉള്ള ഞങ്ങളുടെ ശ്രമങ്ങളുടെ തുടർച്ചയാണിത്. അവസാന റിപ്പോർട്ടിംഗ് കാലയളവിൽ തന്നെ ഈ ശ്രമം ഞങ്ങൾ തുടങ്ങിയിരുന്നു, ആ കാലയളവിൽ സ്പാമിനായി നടപ്പാക്കിയ മൊത്തം നടപടികളിൽ ~65% കുറവും നടപടി നേരിട്ട അക്കൗണ്ടുകളിൽ ~60% കുറവും ഉണ്ടായിരുന്നു.
ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളുടെ ലംഘനങ്ങൾ മുൻകൂട്ടി കണ്ടെത്തുവാനും നടപ്പിലാക്കാനുമുള്ള ഞങ്ങളുടെ ശ്രമങ്ങൾ
ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളുടെ ലംഘനങ്ങൾ മുൻകൂട്ടി കണ്ടെത്തുന്നതിനും ചില സന്ദർഭങ്ങളിൽ അതിനെതിരെ നിയമനടപടികൾ സ്വീകരിക്കുന്നതിനും ഞങ്ങൾ ഓട്ടോമേറ്റഡ് ടൂളുകൾ ഉപയോഗിക്കുന്നു. ഈ ടൂളുകളിൽ ഹാഷ്-മാച്ചിംഗ് ടെക്നോളജി (PhotoDNA, Google-ൻെറ ചൈൽഡ് സെക്ച്വൽ അബ്യൂസ് ഇമേജറി (CSAI) മാച്ച് ഉൾപ്പെടെ), Google-ൻെറ ഉള്ളടക്ക സേഫ്റ്റി API, ദുരുപയോഗം ചെയ്യുന്ന തരത്തിലുള്ള ടെക്സ്റ്റുകളും മീഡിയയും കണ്ടെത്തുന്നതിനായി രൂപകൽപ്പന ചെയ്ത മറ്റ് ഇഷ്ടാനുസൃത സാങ്കേതികവിദ്യയും ഉൾപ്പെടുന്നു; ചിലപ്പോൾ ആർട്ടിഫിഷ്യൽ ഇൻറലിജൻസ്, മെഷീൻ ലേണിംഗ് എന്നിവയും ഇതിനായി ഉപയോഗിക്കറുണ്ട്.
2024-ന്റെ രണ്ടാം പകുതിയിൽ, ഓട്ടോമേറ്റഡ് ഡിറ്റക്ഷൻ ടൂളുകൾ ഉപയോഗിച്ച് ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളുടെ ലംഘനങ്ങൾ മുൻകൂട്ടി കണ്ടെത്തിയതിന് ശേഷം ഞങ്ങൾ ഇനിപ്പറയുന്ന നിയമനടപടികൾ സ്വീകരിച്ചു:
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
3,685,602
1,845,125
നയ കാരണം
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
കണ്ടെത്തുന്നതു മുതൽ അവസാന പ്രവർത്തനം പൂർത്തീകരിക്കുന്നതുവരെ എടുക്കുന്ന ശരാശരി സമയം (മിനിറ്റുകളിൽ)
ലൈംഗിക ഉള്ളടക്കം
1,818,287
828,590
<1
കുട്ടികളുടെ ലൈംഗിക ചൂഷണം
491,970
188,877
1
ഉപദ്രവവും ഭീഷണിപ്പെടുത്തലും
14,942
11,234
8
ഭീഷണികളും അതിക്രമവും
43,625
29,599
9
സ്വയം ഉപദ്രവവും ആത്മഹത്യയും
761
624
9
തെറ്റായ വിവരങ്ങൾ
85
81
10
ആൾമാറാട്ടം
8
6
19
സ്പാം
177,150
110,551
<1
മയക്കുമരുന്നുകൾ
869,178
590,658
5
ആയുധങ്ങൾ
205,387
133,079
<1
മറ്റ് നിയന്ത്രിത ചരക്കുകൾ
48,280
37,028
9
വിദ്വേഷ സംഭാഷണം
10,344
8,683
10
ഭീകരതയും അക്രമാസക്തമായ തീവ്രവാദവും
5,585
2,951
21
Combatting Child Sexual Exploitation & Abuse
ഞങ്ങളുടെ കമ്മ്യൂണിറ്റിയിലെ ഏതൊരു അംഗത്തെയും, പ്രത്യേകിച്ച് പ്രായപൂർത്തിയാകാത്തവരെ, ലൈംഗികമായി ചൂഷണം ചെയ്യുന്നത് നിയമവിരുദ്ധവും വെറുപ്പുളവാക്കുന്നതും ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ പ്രകാരം നിരോധിച്ചതുമാണ്. ഞങ്ങളുടെ പ്ലാറ്റ്ഫോമിലെ CSEA തടയുന്നതും കണ്ടെത്തുന്നതും ഇല്ലാതാക്കുന്നതും Snap-ൻെറ മുൻഗണനയാണ്, ഇവയെയും മറ്റ് കുറ്റകൃത്യങ്ങളെയും ചെറുക്കുന്നതിനുള്ള ഞങ്ങളുടെ കഴിവുകൾ ഞങ്ങൾ നിരന്തരം വികസിപ്പിക്കുന്നു.
CSEA-മായി ബന്ധപ്പെട്ട ഉള്ളടക്കം തിരിച്ചറിയാൻ സഹായിക്കുന്നതിന് ഞങ്ങൾ സജീവ സാങ്കേതിക കണ്ടെത്തൽ ഉപകരണങ്ങൾ ഉപയോഗിക്കുന്നു. ഈ ടൂളുകളിൽ ഹാഷ്-മാച്ചിംഗ് ടൂളുകൾ (യഥാക്രമം CSEA-യുടെ അറിയപ്പെടുന്ന നിയമവിരുദ്ധ ചിത്രങ്ങളും വീഡിയോകളും തിരിച്ചറിയുന്നതിനായി PhotoDNA, Google-ൻെറ CSAI മാച്ച് എന്നിവ ഉൾപ്പെടെ), Google ഉള്ളടക്ക സുരക്ഷാ API ("ഒരിക്കലും ഹാഷ് ചെയ്തിട്ടില്ലാത്ത" നിയമവിരുദ്ധ ചിത്രങ്ങൾ തിരിച്ചറിയാൻ) എന്നിവ ഉൾപ്പെടുന്നു. കൂടാതെ, ചില സന്ദർഭങ്ങളിൽ, മറ്റ് സംശയാസ്പദമായ CSEA പ്രവർത്തനത്തിനെതിരെ നടപടി എടുക്കാൻ ഞങ്ങൾ പെരുമാറ്റ സൂചനകൾ ഉപയോഗിക്കുന്നു. CSEA-യുമായി ബന്ധപ്പെട്ട ഉള്ളടക്കം നിയമം അനുശാസിക്കുന്ന പ്രകാരം യു.എസ് നാഷണൽ സെന്റർ ഫോർ മിസ്സിംഗ് ആൻഡ് എക്സ്പ്ലോയിറ്റഡ് ചിൽഡ്രനിലേക്ക് (NCMEC) ഞങ്ങൾ റിപ്പോർട്ട് ചെയ്യുന്നു. തുടർന്ന് NCMEC ആവശ്യാനുസരണം ആഭ്യന്തര അല്ലെങ്കിൽ അന്താരാഷ്ട്ര നിയമ നിർവ്വഹണ ഏജൻസികളുമായി ഏകോപിപ്പിക്കുന്നു.
2024-ന്റെ രണ്ടാം പകുതിയിൽ, Snapchat-ൽ CSEA തിരിച്ചറിഞ്ഞപ്പോൾ (മുൻകൂട്ടിയോ അതോ റിപ്പോർട്ട് ലഭിച്ചപ്പോഴോ) ഞങ്ങൾ ഇനിപ്പറയുന്ന നടപടികൾ സ്വീകരിച്ചു:
നടപ്പിലാക്കിയ മൊത്തം ഉള്ളടക്കം
പ്രവർത്തനരഹിതമാക്കിയ മൊത്തം അക്കൗണ്ടുകൾ
NCMEC-ലേക്കുള്ള മൊത്തം സമർപ്പിക്കലുകൾ*
1,228,929
242,306
417,842
*NCMEC-ലേക്കുള്ള ഓരോ സമർപ്പണത്തിലും ഒന്നിലധികം ഉള്ളടക്കങ്ങൾ അടങ്ങിയിരിക്കാമെന്ന് ശ്രദ്ധിക്കുക. NCMEC-ലേക്ക് സമർപ്പിച്ച മൊത്തം വ്യക്തിഗത മീഡിയയുടെ എണ്ണം, ഞങ്ങൾ നടപ്പിലാക്കിയ മൊത്തം ഉള്ളടക്കത്തിന് തുല്യമാണ്.
ആവശ്യമുള്ള സ്നാപ്പ്ചാറ്റർമാർക്ക് ഉറവിടങ്ങളും പിന്തുണയും നൽകാനുള്ള ഞങ്ങളുടെ ശ്രമങ്ങൾ
ആവശ്യമുള്ള സ്നാപ്പ്ചാറ്റർമാർക്ക് ഉറവിടങ്ങളും പിന്തുണയും നൽകിക്കൊണ്ട് പ്രയാസകരമായ സമയങ്ങളിൽ പരസ്പരം സഹായിക്കാൻ Snapchat സുഹൃത്തുക്കളെ ശാക്തീകരിക്കുന്നു.
Here For Youഎന്ന തിരയൽ ടൂൾ ഉപയോക്താക്കൾ മാനസികാരോഗ്യം, ഉത്കണ്ഠ, വിഷാദം, സമ്മർദ്ദം, ആത്മഹത്യാ ചിന്തകൾ, ദുഃഖം, ഭീഷണിപ്പെടുത്തൽ തുടങ്ങിയ വിഷയങ്ങൾ തിരയുമ്പോൾ വിദഗ്ധരിൽ നിന്നുള്ള ഉറവിടങ്ങൾ ലഭ്യമാക്കുന്നു. പ്രയാസത്തിലുള്ളവരെ പിന്തുണയ്ക്കുന്നതിനുള്ള ശ്രമം ആയി, ലൈംഗിക ഉള്ളടക്കം ഉപയോഗിച്ച് പണം തട്ടുന്നതും മറ്റ് ലൈംഗിക അപകടങ്ങളും ദോഷങ്ങളും കൈകാര്യം ചെയ്യുന്നതിനായി പ്രത്യേകം ഒരു പേജും ഞങ്ങൾ വികസിപ്പിച്ചിട്ടുണ്ട്. ഞങ്ങളുടെ ആഗോള സുരക്ഷാ ഉറവിടങ്ങളുടെ പട്ടിക, എല്ലാ സ്നാപ്പ്ചാറ്റർമാർക്കും ഞങ്ങളുടെ സ്വകാര്യത, സുരക്ഷ, നയ ഹബ്ബിൽ (Privacy, Safety & Policy Hub) പൊതുവായി ലഭ്യമാണ്.
ഒരു സ്നാപ്പ്ചാറ്റർ ദുരിതത്തിലാണെന്ന് ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ മനസ്സിലാക്കുമ്പോൾ, സ്വയം ഉപദ്രവിക്കുന്നത് തടയാനും, പിന്തുണ നൽകുന്ന വിവരങ്ങൾ നൽകാനും, ആവശ്യാനുസരണം അടിയന്തര സേവനങ്ങളെ അറിയിക്കാനും അവർക്ക് കഴിയും. ഞങ്ങൾ ലഭ്യമാക്കുന്ന ഉറവിടങ്ങൾ ഞങ്ങളുടെ ആഗോള സുരക്ഷാ ഉറവിടങ്ങളുടെ പട്ടികയിൽ ലഭ്യമാണ്, ഇവ എല്ലാ സ്നാപ്പ്ചാറ്റർമാർക്കും ലഭ്യമാണ്.
ആത്മഹത്യാ ഉറവിടങ്ങൾ പങ്കിട്ട മൊത്തം തവണ
64,094
അപ്പീലുകൾ
2024-ന്റെ രണ്ടാം പകുതിയിൽ തങ്ങളുടെ അക്കൗണ്ട് ലോക്ക് ചെയ്യാനുള്ള ഞങ്ങളുടെ തീരുമാനം പുനഃപരിശോധിക്കണമെന്ന് അഭ്യർത്ഥിച്ച് ഉപയോക്താക്കളിൽ നിന്ന് ഞങ്ങൾക്ക് ലഭിച്ച അപ്പീലുകളെ കുറിച്ചുള്ള വിവരങ്ങൾ ഞങ്ങൾ ചുവടെ നൽകുന്നു:
നയ കാരണം
മൊത്തം അപ്പീലുകൾ
മൊത്തം പുനഃസ്ഥിതീകരണങ്ങൾ
ശരിവെച്ച മൊത്തം തീരുമാനങ്ങൾ
അപ്പീലുകൾ പ്രോസസ്സ് ചെയ്യുന്നതിനുള്ള ശരാശരി പൂർത്തിയാക്കൽ സമയം (ദിവസങ്ങൾ)
മൊത്തം
493,782
35,243
458,539
5
ലൈംഗിക ഉള്ളടക്കം
162,363
6,257
156,106
4
കുട്ടികളുടെ ലൈംഗിക ചൂഷണം
102,585
15,318
87,267
6
ഉപദ്രവവും ഭീഷണിപ്പെടുത്തലും
53,200
442
52,758
7
ഭീഷണികളും അതിക്രമവും
4,238
83
4,155
5
സ്വയം ഉപദ്രവവും ആത്മഹത്യയും
31
1
30
5
തെറ്റായ വിവരങ്ങൾ
3
0
3
<1
ആൾമാറാട്ടം
847
33
814
7
സ്പാം
19,533
5,090
14,443
9
മയക്കുമരുന്നുകൾ
133,478
7,598
125,880
4
ആയുധങ്ങൾ
4,678
136
4,542
6
മറ്റ് നിയന്ത്രിത ചരക്കുകൾ
9,153
168
8,985
6
വിദ്വേഷ സംഭാഷണം
3,541
114
3,427
7
ഭീകരതയും അക്രമാസക്തമായ തീവ്രവാദവും
132
3
129
9
പ്രാദേശികവും രാഷ്ട്രപരവുമായ അവലോകനം
ഈ വിഭാഗം ഭൂമിശാസ്ത്ര മേഖലകളുടെ സാമ്പിളിന്റെ അടിസ്ഥാനത്തിൽ, ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ മുൻകൂട്ടിയും ലംഘനങ്ങളുടെ ഇൻ-ആപ്പ് റിപ്പോർട്ടുകൾക്ക് മറുപടിയായിയും നടപ്പാക്കാനുള്ള ഞങ്ങളുടെ സേഫ്റ്റി ടീമുകൾ സ്വീകരിച്ച നടപടികളുടെ ഒരു അവലോകനം നൽകുന്നു. ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ ലോകമെമ്പാടുമുള്ള എല്ലാ Snapchat ഉള്ളടക്കത്തിനും—എല്ലാ Snapchat ഉപയോക്താക്കൾക്കും—അവരുടെ ലൊക്കേഷൻ പരിഗണിക്കാതെ ബാധകമാണ്.
എല്ലാ യൂറോപ്യൻ യൂണിയൻ അംഗരാജ്യങ്ങളും ഉൾപ്പെടെ വ്യക്തിഗത രാജ്യങ്ങൾക്കായുള്ള വിവരങ്ങൾ, അറ്റാച്ചു ചെയ്ത CSV ഫയൽ വഴി ഡൗൺലോഡ് ചെയ്യാൻ ലഭ്യമാണ്.
മേഖല
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
വടക്കേ അമേരിക്ക
3,828,389
2,117,048
യൂറോപ്പ്
2,807,070
1,735,054
ബാക്കി ലോകം
3,396,651
1,846,110
മൊത്തം
10,032,110
5,698,212
മേഖല
ഉള്ളടക്ക റിപ്പോർട്ടുകളും അക്കൗണ്ട് റിപ്പോർട്ടുകളും
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
വടക്കേ അമേരിക്ക
5,916,815
2,229,465
1,391,304
യൂറോപ്പ്
5,781,317
2,085,109
1,378,883
ബാക്കി ലോകം
7,681,716
2,031,934
1,319,934
മൊത്തം
19,379,848
6,346,508
4,090,121
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
പരസ്യങ്ങളുടെ മോഡറേഷൻ
എല്ലാ പരസ്യങ്ങളും പരസ്യം ചെയ്യൽ നയങ്ങൾ പൂർണ്ണമായും പാലിക്കുന്നു എന്ന് ഉറപ്പാക്കാൻ സ്നാപ്പ് പ്രതിജ്ഞാബദ്ധമാണ്. പരസ്യങ്ങളോട് ഉത്തരവാദിത്തപരമായ സമീപനം ഞങ്ങൾ പുലർത്തുന്നു, അതുവഴി എല്ലാ സ്നാപ്പ്ചാറ്റർമാർക്കും ഒരു സുരക്ഷിത അനുഭവം സൃഷ്ടിക്കുന്നു. എല്ലാ പരസ്യങ്ങളും ഞങ്ങളുടെ അവലോകനത്തിനും അംഗീകാരത്തിനും വിധേയമാണ്. കൂടാതെ, ഉപയോക്തൃ ഫീഡ്ബാക്കിനോടുള്ള പ്രതികരണമായി ഉൾപ്പെടെ പരസ്യങ്ങൾ നീക്കം ചെയ്യാനുള്ള അവകാശം ഞങ്ങളിൽ നിക്ഷിപ്തമാണ്, അത് ഞങ്ങൾ ഗൗരവമായി എടുക്കുന്നു.
Snapchat-ൽ പ്രസിദ്ധീകരിച്ചതിനെത്തുടർന്ന് ഞങ്ങൾക്ക് റിപ്പോർട്ട് ചെയ്യപ്പെട്ട പെയ്ഡ് പരസ്യങ്ങൾക്കായുള്ള ഞങ്ങളുടെ മോഡറേഷനെക്കുറിച്ചുള്ള ഉൾക്കാഴ്ച ഞങ്ങൾ ചുവടെ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. വഞ്ചനാപരമായ ഉള്ളടക്കം, മുതിർന്നവർക്കായുള്ള ഉള്ളടക്കം, അക്രമാസക്തമോ അസ്വസ്ഥപ്പെടുത്തുന്നതോ ആയ ഉള്ളടക്കം, വിദ്വേഷ പ്രസംഗം, ബൗദ്ധിക സ്വത്തവകാശ ലംഘനം എന്നിവയുൾപ്പെടെ സ്നാപിൻെറ പരസ്യ നയങ്ങളിൽ വിവരിച്ചിരിക്കുന്ന വിവിധ കാരണങ്ങളാൽ സ്നാപ്ചാറ്റിലെ പരസ്യങ്ങൾ നീക്കം ചെയ്യാൻ കഴിയുമെന്ന് ശ്രദ്ധിക്കുക. കൂടാതെ, നിങ്ങൾക്ക് Snap-ൻെറ സുതാര്യത ഹബിൽ ഇപ്പോൾ Snap-ൻെറ പരസ്യ ഗാലറി കണ്ടെത്താൻ കഴിയും, അത് നാവിഗേഷൻ ബാറിലൂടെ നേരിട്ട് ആക്സസ് ചെയ്യാവുന്നതാണ്.
ആകെ റിപ്പോർട്ട് ചെയ്ത പരസ്യങ്ങൾ
ആകെ നീക്കം ചെയ്ത പരസ്യങ്ങൾ
43,098
17,833


