1 ഡിസംബർ 2025
1 ഡിസംബർ 2025
Snap- ന്റെ സുരക്ഷാ ശ്രമങ്ങളെക്കുറിച്ചുള്ള ഉൾക്കാഴ്ചകൾ നൽകുന്നതിന് വർഷത്തിൽ രണ്ടു തവണ ഞങ്ങൾ സുതാര്യതാ റിപ്പോർട്ട് പ്രസിദ്ധീകരിക്കുന്നു. സുരക്ഷയോടും സുതാര്യതയോടുമുള്ള ഞങ്ങളുടെ പ്രതിബദ്ധതയുടെ ഭാഗമായി, ഞങ്ങളുടെ ഉള്ളടക്ക മോഡറേഷൻ, നിയമപാലനത്തോടുള്ള ഞങ്ങളുടെ സമീപനം, Snapchat കമ്മ്യൂണിറ്റിയുടെ സുരക്ഷയും ക്ഷേമവും എന്നിവയെക്കുറിച്ച് അതീവ താല്പര്യമുള്ള നിരവധി പങ്കാളികൾക്കായി ഈ റിപ്പോർട്ടുകൾ കൂടുതൽ സമഗ്രവും വിജ്ഞാനപ്രദവുമാക്കാൻ ഞങ്ങൾ നിരന്തരം പരിശ്രമിക്കുന്നു.
ഈ സുതാര്യതാ റിപ്പോർട്ട് 2025-ന്റെ ആദ്യ പകുതി (ജനുവരി 1 - ജൂൺ 30) ഉൾക്കൊള്ളുന്നു. ഉപയോക്താക്കളുടെ റിപ്പോർട്ടുകളെ കുറിച്ചും Snap-ന്റെ മുൻകൂട്ടിയുള്ള കണ്ടെത്തലിനെക്കുറിച്ചും ഉള്ള ആഗോള ഡാറ്റ ഞങ്ങൾ പങ്കിടുന്നു; കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശ ലംഘനങ്ങളുടെ നിർദ്ദിഷ്ട വിഭാഗങ്ങളിൽ ഉടനീളം ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ സ്വീകരിച്ച നടപടികൾ; നിയമപാലകരിൽ നിന്നും സർക്കാരുകളിൽ നിന്നുമുള്ള അഭ്യർത്ഥനകളോട് ഞങ്ങൾ എങ്ങനെയാണ് പ്രതികരിച്ചത്; പകർപ്പവകാശ, വ്യാപാരമുദ്ര ലംഘന അറിയിപ്പുകളോട് ഞങ്ങൾ എങ്ങനെയാണ് പ്രതികരിച്ചത് എന്നിവയും ഞങ്ങൾ പങ്കിടുന്നു. ലിങ്ക് ചെയ്ത പേജുകളുടെ ഒരു പരമ്പരയായി രാജ്യം തിരിച്ച് ഉൾക്കാഴ്ചകളും ഞങ്ങൾ നൽകുന്നു.
Snapchat-ലെ സുരക്ഷയ്ക്കും സ്വകാര്യതയ്ക്കുമായുള്ള അധിക ഉറവിടങ്ങൾ കണ്ടെത്താൻ, പേജിന്റെ ചുവടെയുള്ള ഞങ്ങളുടെ സുതാര്യത റിപ്പോർട്ടിംഗിനെ കുറിച്ച് എന്ന ടാബ് കാണുക.
ഈ സുതാര്യതാ റിപ്പോർട്ടിന്റെ ഏറ്റവും പുതിയ പതിപ്പ് ഇംഗ്ലീഷ് പതിപ്പാണെന്ന് ദയവായി ശ്രദ്ധിക്കുക.
ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ നടപ്പിലാക്കാൻ വേണ്ടി ഞങ്ങളുടെ ട്രസ്റ്റ് ആൻഡ് സേഫ്റ്റി ടീമുകൾ എടുത്ത നടപടികളുടെ പൊതു അവലോകനം
ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ മുൻകൂട്ടിയും (ഓട്ടോമേറ്റഡ് ഡിറ്റക്ഷൻ ടൂളുകൾ ഉപയോഗിച്ച്) പ്രതികരണാത്മമായും (റിപ്പോർട്ടുകൾക്ക് മറുപടിയായി) നടപ്പാക്കുന്നു, ഈ റിപ്പോർട്ടിന്റെ തുടർന്നുള്ള ഭാഗങ്ങളിൽ ഇത് കൂടുതൽ വിശദീകരിക്കുന്നു. ഈ റിപ്പോർട്ടിംഗ് കാലയളവിൽ (H1 2025), ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ താഴെപ്പറയുന്ന എണ്ണം നടപടികൾ സ്വീകരിച്ചു:
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
9,674,414
5,794,201
കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശ ലംഘനങ്ങളുടെ ഓരോ തരത്തെയും കുറിച്ചുള്ള വിവരങ്ങൾ താഴെ നൽകുന്നു, ഒരു ലംഘനം ഞങ്ങൾ കണ്ടെത്തിയ (മുൻകൂട്ടിയോ അല്ലെങ്കിൽ റിപ്പോർട്ട് ലഭിച്ചതിന് ശേഷമോ) സമയം മുതൽ പ്രസ്തുത ഉള്ളടക്കത്തിലോ അക്കൗണ്ടിലോ അന്തിമ നടപടി സ്വീകരിക്കുന്നതുവരെയുള്ള ശരാശരി "പ്രതികരണ സമയവും" ഇതിൽ ഉൾപ്പെടുത്തിയിരിക്കുന്നു:
നയ കാരണം
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
കണ്ടെത്തുന്നതു മുതൽ അവസാന പ്രവർത്തനം പൂർത്തീകരിക്കുന്നതുവരെ എടുക്കുന്ന ശരാശരി സമയം (മിനിറ്റുകളിൽ)
ലൈംഗികപരമായ ഉള്ളടക്കം
5,461,419
3,233,077
1
കുട്ടികളുടെ ലൈംഗിക ചൂഷണവും ദുരുപയോഗവും
1,095,424
733,106
5
ഉപദ്രവിക്കലും ഭീഷണിപ്പെടുത്തലും
713,448
594,302
3
ഭീഷണിപ്പെടുത്തലും അതിക്രമവും
187,653
146,564
3
സ്വയം ഉപദ്രവിക്കലും ആത്മഹത്യയും
47,643
41,216
5
തെറ്റായ വിവരങ്ങൾ
2,088
2,004
1
ആൾമാറാട്ടം
7,138
6,881
<1
സ്പാം
267,299
189,344
1
മയക്കുമരുന്നുകൾ
1,095,765
726,251
7
ആയുധങ്ങൾ
251,243
173,381
1
മറ്റ് നിയന്ത്രിത സാധനങ്ങൾ
183,236
126,952
4
വിദ്വേഷ സംഭാഷണം
343,051
284,817
6
ഭീകരവാദവും അക്രമാസക്തമായ തീവ്രവാദവും
10,970
6,783
2
മൊത്തം നടപ്പാക്കല് വിവരങ്ങളില് Snapchat വഴി സമർപ്പിച്ച ആപ്പിലെ റിപ്പോർട്ടുകൾ അവലോകനം ചെയ്തതിന് ശേഷം Snap സ്വീകരിച്ച നടപടികൾ ഉൾപ്പെടുന്നു. Snap-ന്റെ സുരക്ഷാ ടീമുകൾ സ്വീകരിച്ച ഭൂരിഭാഗം നടപടികളും ഇത് പ്രതിനിധീകരിക്കുന്നു. ഞങ്ങളുടെ പിന്തുണാ സൈറ്റ് വഴിയോ മറ്റ് സംവിധാനങ്ങൾ വഴിയോ (ഉദാ: ഇമെയിൽ വഴി) Snap-ന് ലഭിച്ച റിപ്പോർട്ടുകളുടെ അടിസ്ഥാനത്തിലുള്ള അന്വേഷണങ്ങളുടെ ഫലമായോ, ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ മുൻകൂട്ടി നടത്തുന്ന ചില അന്വേഷണങ്ങളുടെ ഫലമായോ സ്വീകരിച്ച മിക്ക നടപടികളും ഈ സംഖ്യയിൽ ഉൾപ്പെടുന്നില്ല. 2025-ൻെറ ആദ്യ പകുതിയിലെ മൊത്തം നടപടികളുടെ അളവിന്റെ 0.5%-ൽ താഴെയാണ് ഈ ഒഴിവാക്കപ്പെട്ട നടപടികൾ.
റിപ്പോർട്ടിംഗ് കാലയളവിൽ, 0.01 ശതമാനം ലംഘന കാഴ്ചാ നിരക്ക് (VVR) ഞങ്ങൾ കണ്ടു, അതായത് Snapchat-ലെ ഓരോ 10,000 Snap, സ്റ്റോറി കാഴ്ചകളിൽ, ഒരെണ്ണത്തിൽ ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ ലംഘിക്കുന്ന ഉള്ളടക്കം ഉൾക്കൊള്ളുന്നു. ഞങ്ങൾ “ഗുരുതരമായ ദോഷങ്ങൾ”എന്ന് പരിഗണിക്കുന്ന വിഭാഗത്തിലെ നടപടികളിൽ, ഞങ്ങൾ 0.0003% VVR കണ്ടെത്തി. നയ കാരണമനുസരിച്ചുള്ള VVR-ന്റെ തരംതിരിവ് ചുവടെയുള്ള പട്ടികയിൽ നൽകിയിരിക്കുന്നു.
നയ കാരണം
VVR
ലൈംഗികപരമായ ഉള്ളടക്കം
0.00482%
കുട്ടികളുടെ ലൈംഗിക ചൂഷണവും ദുരുപയോഗവും
0.00096%
ഉപദ്രവിക്കലും ഭീഷണിപ്പെടുത്തലും
0.00099%
ഭീഷണിപ്പെടുത്തലും അതിക്രമവും
0.00176%
സ്വയം ഉപദ്രവിക്കലും ആത്മഹത്യയും
0.0009%
തെറ്റായ വിവരങ്ങൾ
0.0002%
ആൾമാറാട്ടം
0.0009%
സ്പാം
0.00060%
മയക്കുമരുന്നുകൾ
0.00047%
ആയുധങ്ങൾ
0.00083%
മറ്റ് നിയന്ത്രിത സാധനങ്ങൾ
0.00104%
വിദ്വേഷ സംഭാഷണം
0.00025%
ഭീകരവാദവും അക്രമാസക്തമായ തീവ്രവാദവും
0.0002%
ഞങ്ങളുടെ ട്രസ്റ്റ്, സുരക്ഷാ ടീമുകൾക്ക് റിപ്പോർട്ട് ചെയ്ത കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശ ലംഘനങ്ങൾ
2025 ജനുവരി 1 മുതൽ ജൂൺ 30 വരെ, ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളുടെ ലംഘനങ്ങളെക്കുറിച്ച് ആപ്പിൽ ലഭിച്ച 19,766,324 റിപ്പോർട്ടുകൾക്ക് മറുപടിയായി, Snap-ന്റെ സുരക്ഷാ ടീമുകൾ ആഗോളതലത്തിൽ ആകെ 6,278,446 നടപടികൾ സ്വീകരിച്ചു, ഇതിൽ 4,104,624 വ്യക്തിഗത അക്കൗണ്ടുകൾക്കെതിരായ നടപടികളും ഉൾപ്പെടുന്നു. ഈ ആപ്പിലെ റിപ്പോർട്ടിംഗ് അളവിൽ പിന്തുണാ സൈറ്റും ഇമെയിൽ റിപ്പോർട്ടുകളും ഉൾപ്പെടുന്നില്ല, അവ മൊത്തം റിപ്പോർട്ടിംഗ് അളവിന്റെ 1% ൽ താഴെ മാത്രമാണ്. ആ റിപ്പോർട്ടുകൾക്ക് മറുപടിയായി നിർവ്വഹണ നടപടി സ്വീകരിക്കാൻ ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ എടുത്ത ശരാശരി സമയം ~2 മിനിറ്റായിരുന്നു. ഓരോ നയ കാരണങ്ങളുടെയും അടിസ്ഥാനത്തിലുള്ള തരംതിരിച്ച കണക്കുകൾ താഴെ നൽകുന്നു. (കുറിപ്പ്: മുൻ റിപ്പോർട്ടുകളിൽ, ഞങ്ങൾ ഇതിനെ ചിലപ്പോൾ "റിപ്പോർട്ടിംഗ് വിഭാഗം" എന്ന് പരാമർശിച്ചിരുന്നു. ഇനി മുതൽ, ഞങ്ങൾ "നയ കാരണം" എന്ന പദം ഉപയോഗിക്കുന്നു, ഇത് ഡാറ്റയുടെ സ്വഭാവത്തെ കൂടുതൽ കൃത്യമായി പ്രതിഫലിപ്പിക്കുന്നതായി ഞങ്ങൾ കരുതുന്നു – കാരണം, റിപ്പോർട്ട് സമർപ്പിക്കുന്ന വ്യക്തി തിരിച്ചറിഞ്ഞ റിപ്പോർട്ടിംഗ് വിഭാഗം പരിഗണിക്കാതെ, ഉചിതമായ നയ കാരണമനുസരിച്ച് നടപടിയെടുക്കാനാണ് ഞങ്ങളുടെ സുരക്ഷാ ടീമുകൾ ശ്രമിക്കുന്നത്.)
മൊത്തം ഉള്ളടക്ക റിപ്പോർട്ടുകളും അക്കൗണ്ട് റിപ്പോർട്ടുകളും
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
മൊത്തം
19,766,324
6,278,446
4,104,624
നയ കാരണം
മൊത്തം ഉള്ളടക്ക റിപ്പോർട്ടുകളും അക്കൗണ്ട് റിപ്പോർട്ടുകളും
മൊത്തം നടപടികൾ
Snap നടപ്പാക്കിയ മൊത്തം റിപ്പോർട്ടുകളുടെ ശതമാനം
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
കണ്ടെത്തുന്നതു മുതൽ അവസാന പ്രവർത്തനം പൂർത്തീകരിക്കുന്നതുവരെ എടുക്കുന്ന ശരാശരി സമയം (മിനിറ്റുകളിൽ)
ലൈംഗികപരമായ ഉള്ളടക്കം
7,315,730
3,778,370
60.2%
2,463,464
1
കുട്ടികളുടെ ലൈംഗിക ചൂഷണവും ദുരുപയോഗവും
1,627,097
695,679
11.1%
577,736
10
ഉപദ്രവവും ഭീഷണിപ്പെടുത്തലും
4,103,797
700,731
11.2%
584,762
3
ഭീഷണിപ്പെടുത്തലും അതിക്രമവും
997,346
147,162
2.3%
120,397
2
സ്വയം ഉപദ്രവിക്കലും ആത്മഹത്യയും
350,775
41,150
0.7%
36,657
3
തെറ്റായ വിവരങ്ങൾ
606,979
2,027
0.0%
1,960
1
ആൾമാറാട്ടം
745,874
7,086
0.1%
6,837
<1
സ്പാം
1,709,559
122,499
2.0%
94,837
1
മയക്കുമരുന്നുകൾ
481,830
262,962
4.2%
176,799
5
ആയുധങ്ങൾ
271,586
39,366
0.6%
32,316
1
മറ്റ് നിയന്ത്രിത സാധനങ്ങൾ
530,449
143,098
2.3%
98,023
3
വിദ്വേഷ സംഭാഷണം
817,262
337,263
5.4%
280,682
6
ഭീകരവാദവും അക്രമാസക്തമായ തീവ്രവാദവും
208,040
1,053
0.0%
912
2
2025-ന്റെ ആദ്യ പകുതിയിൽ, മുൻ റിപ്പോർട്ടിംഗ് കാലയളവിനെ അപേക്ഷിച്ച്, എല്ലാ നയ വിഭാഗങ്ങളിലുമുള്ള ശരാശരി തീർപ്പാക്കൽ സമയം ഞങ്ങൾ ശരാശരി 75 ശതമാനത്തിലധികം കുറച്ച്, 2 മിനിറ്റായി ചുരുക്കി. ഈ കുറവിന് പ്രധാന കാരണം, ദോഷത്തിൻെറ തീവ്രത, ഓട്ടോമേറ്റഡ് പരിശോധന എന്നിവ അടിസ്ഥാനമാക്കി, അവലോകനത്തിനായുള്ള റിപ്പോർട്ടുകൾക്ക് മുൻഗണന നൽകുന്നത് മെച്ചപ്പെടുത്താനുള്ള ഞങ്ങളുടെ തുടർച്ചയായ കൂട്ടായ പരിശ്രമമാണ്.
ആയുധങ്ങൾ ഉൾപ്പെടുന്ന നിയമവിരുദ്ധ പ്രവർത്തനങ്ങളെക്കുറിച്ചുള്ള ഞങ്ങളുടെ നയങ്ങൾ ശക്തിപ്പെടുത്തുന്നത് ഉൾപ്പെടെ, ഈ റിപ്പോർട്ടിംഗ് കാലയളവിൽ ഞങ്ങളുടെ സുരക്ഷാ ശ്രമങ്ങളിൽ ലക്ഷ്യബോധത്തോടെയുള്ള നിരവധി മാറ്റങ്ങൾ ഞങ്ങൾ വരുത്തി, അത് ഇവിടെ റിപ്പോർട്ട് ചെയ്ത ഡാറ്റയെ സ്വാധീനിച്ചു. കുട്ടികളുടെ ലൈംഗിക ചൂഷണം എന്ന വിഭാഗത്തിൽ റിപ്പോർട്ടുകളിലും നടപടികളിലും വർദ്ധനവ് ഞങ്ങൾ നിരീക്ഷിച്ചു, ഞങ്ങളുടെ നയങ്ങൾ ലംഘിക്കുന്നതും എന്നാൽ യു.എസിൽ നിയമവിരുദ്ധമല്ലാത്തതും യു.എസ്. നാഷണൽ സെൻറർ ഫോർ മിസ്സിംഗ് ആൻഡ് എക്സ്പ്ലോയിറ്റഡ് ചിൽഡ്രനിൽ (NCMEC) റിപ്പോർട്ട് ചെയ്യേണ്ടതില്ലാത്തതുമായ, പ്രായപൂർത്തിയാകാത്തവർ ഉൾപ്പെടുന്ന ലൈംഗികവൽക്കരിക്കപ്പെട്ട അല്ലെങ്കിൽ സെൻസിറ്റീവ് ഉള്ളടക്കത്തിലെ വർദ്ധനവാണ് ഇതിന് പ്രധാനമായും കാരണമായത്. ലൈംഗിക ഉള്ളടക്കവുമായി ബന്ധപ്പെട്ട അളവിലുണ്ടായ വർദ്ധനവിനും (ഉപദ്രവവുമായി ബന്ധപ്പെട്ട അളവിലുണ്ടായ കുറവിനും) കാരണം, ലൈംഗിക പീഡനവുമായി ബന്ധപ്പെട്ട ഉള്ളടക്കത്തെ 'ഉപദ്രവം' എന്ന വിഭാഗത്തിൽ നിന്ന് 'ലൈംഗിക ഉള്ളടക്കം' എന്നതിലേക്ക് ഞങ്ങൾ പുനർവർഗ്ഗീകരിച്ചതാണ്.
ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളുടെ ലംഘനങ്ങൾ മുൻകൂട്ടി കണ്ടെത്തുവാനും നടപ്പിലാക്കാനുമുള്ള ഞങ്ങളുടെ ശ്രമങ്ങൾ
ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളുടെ ലംഘനങ്ങൾ മുൻകൂട്ടി കണ്ടെത്തുന്നതിനും ചില സന്ദർഭങ്ങളിൽ അതിനെതിരെ നിയമനടപടികൾ സ്വീകരിക്കുന്നതിനും ഞങ്ങൾ ഓട്ടോമേറ്റഡ് ടൂളുകൾ ഉപയോഗിക്കുന്നു. ഈ ടൂളുകളിൽ ഹാഷ്-മാച്ചിംഗ് സാങ്കേതികവിദ്യയും (PhotoDNA, Google-ന്റെ ചൈൽഡ് സെക്ഷ്വൽ അബ്യൂസ് ഇമേജറി (CSAI) എന്നിവയുൾപ്പെടെ), Google-ന്റെ കണ്ടന്റ് സേഫ്റ്റി API-യും, നിയമവിരുദ്ധവും ലംഘനപരവുമായ ടെക്സ്റ്റും മീഡിയയും കണ്ടെത്താൻ രൂപകൽപ്പന ചെയ്ത മറ്റ് കുത്തക സാങ്കേതികവിദ്യകളും ഉൾപ്പെടുന്നു, ചിലപ്പോൾ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസും മെഷീൻ ലേണിംഗും പ്രയോജനപ്പെടുത്തുന്നു. ഉപയോക്താവിന്റെ പെരുമാറ്റത്തിലെ മാറ്റങ്ങൾ, ഞങ്ങളുടെ കണ്ടെത്തൽ ശേഷിയിലെ മെച്ചപ്പെടുത്തലുകൾ, ഞങ്ങളുടെ നയങ്ങളിലെ മാറ്റങ്ങൾ എന്നിവയുടെ ഫലമായി ഞങ്ങള് മുൻകൂട്ടി കണ്ടെത്തുന്ന സംഖ്യകൾ പതിവായി മാറിക്കൊണ്ടിരിക്കുന്നു.
2025-ന്റെ ആദ്യ പകുതിയിൽ, ഓട്ടോമേറ്റഡ് ഡിറ്റക്ഷൻ ടൂളുകൾ ഉപയോഗിച്ച് ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളുടെ ലംഘനങ്ങൾ മുൻകൂട്ടി കണ്ടെത്തിയതിന് ശേഷം, ഞങ്ങൾ ഇനിപ്പറയുന്ന നടപടികൾ സ്വീകരിച്ചു:
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
മൊത്തം
3,395,968
1,709,224
നയ കാരണം
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
കണ്ടെത്തുന്നതു മുതൽ അവസാന പ്രവർത്തനം പൂർത്തീകരിക്കുന്നതുവരെ എടുക്കുന്ന ശരാശരി സമയം (മിനിറ്റുകളിൽ)
ലൈംഗികപരമായ ഉള്ളടക്കം
1,683,045
887,059
0
കുട്ടികളുടെ ലൈംഗിക ചൂഷണവും ദുരുപയോഗവും
399,756
162,017
2
ഉപദ്രവിക്കലും ഭീഷണിപ്പെടുത്തലും
12,716
10,412
8
ഭീഷണിപ്പെടുത്തലും അതിക്രമവും
40,489
27,662
6
സ്വയം ഉപദ്രവിക്കലും ആത്മഹത്യയും
6,493
4,638
7
തെറ്റായ വിവരങ്ങൾ
61
44
20
ആൾമാറാട്ടം
52
44
34
സ്പാം
144,800
96,500
0
മയക്കുമരുന്നുകൾ
832,803
578,738
7
ആയുധങ്ങൾ
211,877
144,455
0
മറ്റ് നിയന്ത്രിത സാധനങ്ങൾ
40,139
31,408
8
വിദ്വേഷ സംഭാഷണം
5,788
4,518
6
ഭീകരവാദവും അക്രമാസക്തമായ തീവ്രവാദവും
9,917
5,899
5
കുട്ടികൾക്കെതിരെയുള്ള ലൈംഗിക ചൂഷണത്തിനും ദുരുപയോഗത്തിനുമെതിരെ പോരാടൽ
ഞങ്ങളുടെ കമ്മ്യൂണിറ്റിയിലെ ഏതൊരു അംഗത്തെയും, പ്രത്യേകിച്ച് പ്രായപൂർത്തിയാകാത്തവരെ, ലൈംഗികമായി ചൂഷണം ചെയ്യുന്നത് നിയമവിരുദ്ധവും വെറുപ്പുളവാക്കുന്നതും ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ പ്രകാരം നിരോധിച്ചതുമാണ്. ഞങ്ങളുടെ പ്ലാറ്റ്ഫോമിലെ CSEA തടയുന്നതും കണ്ടെത്തുന്നതും ഇല്ലാതാക്കുന്നതും Snap-ൻെറ മുൻഗണനയാണ്, ഇവയെയും മറ്റ് കുറ്റകൃത്യങ്ങളെയും ചെറുക്കുന്നതിനുള്ള ഞങ്ങളുടെ കഴിവുകൾ ഞങ്ങൾ നിരന്തരം വികസിപ്പിക്കുന്നു.
CSEA-മായി ബന്ധപ്പെട്ട ഉള്ളടക്കം തിരിച്ചറിയാൻ സഹായിക്കുന്നതിന് ഞങ്ങൾ സജീവ സാങ്കേതിക കണ്ടെത്തൽ ഉപകരണങ്ങൾ ഉപയോഗിക്കുന്നു. ഈ ടൂളുകളിൽ, ഹാഷ്-മാച്ചിംഗ് ടൂളുകളും (CSEA-യുടെ അറിയപ്പെടുന്ന നിയമവിരുദ്ധ ചിത്രങ്ങളും വീഡിയോകളും യഥാക്രമം തിരിച്ചറിയുന്നതിനായി PhotoDNA, Google-ന്റെ CSAI മാച്ച് എന്നിവ ഉൾപ്പെടെ), Google-ന്റെ കണ്ടന്റ് സേഫ്റ്റി API ("മുമ്പ് ഹാഷ് ചെയ്യപ്പെടാത്ത" പുതിയ, നിയമവിരുദ്ധ ചിത്രങ്ങൾ തിരിച്ചറിയാൻ) എന്നിവ ഉൾപ്പെടുന്നു. കൂടാതെ, ചില സന്ദർഭങ്ങളിൽ, മറ്റ് സംശയാസ്പദമായ CSEA പ്രവർത്തനത്തിനെതിരെ നടപടി എടുക്കാൻ ഞങ്ങൾ പെരുമാറ്റ സൂചനകൾ ഉപയോഗിക്കുന്നു. CSEA-യുമായി ബന്ധപ്പെട്ട ഉള്ളടക്കം നിയമം അനുശാസിക്കുന്ന പ്രകാരം യു.എസ് നാഷണൽ സെന്റർ ഫോർ മിസ്സിംഗ് ആൻഡ് എക്സ്പ്ലോയിറ്റഡ് ചിൽഡ്രനിലേക്ക് (NCMEC) ഞങ്ങൾ റിപ്പോർട്ട് ചെയ്യുന്നു. തുടർന്ന് NCMEC ആവശ്യാനുസരണം ആഭ്യന്തര അല്ലെങ്കിൽ അന്താരാഷ്ട്ര നിയമ നിർവ്വഹണ ഏജൻസികളുമായി ഏകോപിപ്പിക്കുന്നു.
2025-ന്റെ ആദ്യ പകുതിയിൽ, Snapchat-ൽ CSEA തിരിച്ചറിഞ്ഞപ്പോൾ (മുൻകൂട്ടിയോ അല്ലെങ്കിൽ റിപ്പോർട്ട് ലഭിച്ചതിന് ശേഷമോ) ഞങ്ങൾ ഇനിപ്പറയുന്ന നടപടികൾ സ്വീകരിച്ചു:
നടപ്പിലാക്കിയ മൊത്തം ഉള്ളടക്കം
പ്രവർത്തനരഹിതമാക്കിയ മൊത്തം അക്കൗണ്ടുകൾ
NCMEC-ലേക്കുള്ള മൊത്തം സമർപ്പിക്കലുകൾ*
994,337
187,387
321,587
*NCMEC-ലേക്കുള്ള ഓരോ സമർപ്പണത്തിലും ഒന്നിലധികം ഉള്ളടക്കങ്ങൾ അടങ്ങിയിരിക്കാമെന്ന് ശ്രദ്ധിക്കുക. NCMEC-ലേക്ക് സമർപ്പിച്ച മൊത്തം വ്യക്തിഗത മീഡിയയുടെ എണ്ണം, ഞങ്ങൾ നടപ്പിലാക്കിയ മൊത്തം ഉള്ളടക്കത്തിന് തുല്യമാണ്.
ആവശ്യമുള്ള സ്നാപ്പ്ചാറ്റർമാർക്ക് ഉറവിടങ്ങളും പിന്തുണയും നൽകാനുള്ള ഞങ്ങളുടെ ശ്രമങ്ങൾ
ആവശ്യമുള്ള സ്നാപ്പ്ചാറ്റർമാർക്ക് ഉറവിടങ്ങളും പിന്തുണയും നൽകിക്കൊണ്ട് പ്രയാസകരമായ സമയങ്ങളിൽ പരസ്പരം സഹായിക്കാൻ Snapchat സുഹൃത്തുക്കളെ ശാക്തീകരിക്കുന്നു.
ഞങ്ങളുടെ Here For You എന്ന സെർച്ച് ടൂൾ ഉപയോക്താക്കൾ മാനസികാരോഗ്യം, ഉത്കണ്ഠ, വിഷാദം, മാനസിക പിരിമുറുക്കം, ആത്മഹത്യാ ചിന്തകൾ, ദുഃഖം, ഭീഷണിപ്പെടുത്തൽ എന്നിവയുമായി ബന്ധപ്പെട്ട നിർദ്ദിഷ്ട വിഷയങ്ങളെക്കുറിച്ച് തിരയുമ്പോൾ,വിദഗ്ധരിൽ നിന്നുള്ള സഹായം ലഭ്യമാക്കുന്നു. ദുരിതത്തിലായവരെ പിന്തുണയ്ക്കുന്നതിനുള്ള ശ്രമത്തിന്റെ ഭാഗമായി, സാമ്പത്തിക ലാഭത്തിനുവേണ്ടിയുള്ള ലൈംഗിക ചൂഷണവും മറ്റ് ലൈംഗിക അപകടസാധ്യതകളും ദോഷങ്ങളും നേരിടുന്നതിന് പ്രത്യേകമായി ഒരു പേജും ഞങ്ങൾ വികസിപ്പിച്ചിട്ടുണ്ട്.
ഒരു സ്നാപ്പ്ചാറ്റർ ദുരിതത്തിലാണെന്ന് ഞങ്ങളുടെ സുരക്ഷാ ടീമുകളുടെ ശ്രദ്ധയിൽപ്പെടുമ്പോൾ, സ്വയം മുറിവേൽപ്പിക്കുന്നത് തടയാനും ആവശ്യമായ പിന്തുണ നൽകാനും, ആവശ്യമെങ്കിൽ അടിയന്തര സേവനങ്ങളെ അറിയിക്കുന്നതിനും അവർ സജ്ജരാണ്. ഞങ്ങൾ പങ്കിടുന്ന വിഭവങ്ങൾ ഞങ്ങളുടെ സുരക്ഷാ വിഭവങ്ങളുടെ ആഗോള പട്ടികയിൽലഭ്യമാണ്, ഇത് ഞങ്ങളുടെ പ്രൈവസി, സേഫ്റ്റി & പോളിസി ഹബ്ബിൽ എല്ലാ സ്നാപ്പ്ചാറ്റർമാർക്കും പൊതുവായി ലഭ്യമാണ്.
ആത്മഹത്യാ ഉറവിടങ്ങൾ പങ്കിട്ട മൊത്തം തവണ
36,162
അപ്പീലുകൾ
2025-ന്റെ ആദ്യ പകുതിയിൽ, കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളുടെ ലംഘനങ്ങൾക്ക് അക്കൗണ്ട് ലോക്ക് ചെയ്യാനുള്ള ഞങ്ങളുടെ തീരുമാനം പുനഃപരിശോധിക്കണമെന്ന് അഭ്യർത്ഥിച്ച് ഉപയോക്താക്കളിൽ നിന്ന് ലഭിച്ച അപ്പീലുകളെക്കുറിച്ചുള്ള വിവരങ്ങൾ ഞങ്ങൾ ചുവടെ നൽകുന്നു:
നയ കാരണം
മൊത്തം അപ്പീലുകൾ
മൊത്തം പുനഃസ്ഥിതീകരണങ്ങൾ
ശരിവെച്ച മൊത്തം തീരുമാനങ്ങൾ
അപ്പീലുകൾ പ്രോസസ്സ് ചെയ്യുന്നതിനുള്ള ശരാശരി പൂർത്തിയാക്കൽ സമയം (ദിവസങ്ങൾ)
മൊത്തം
437,855
22,142
415,494
1
ലൈംഗികപരമായ ഉള്ളടക്കം
134,358
6,175
128,035
1
കുട്ടികളുടെ ലൈംഗിക ചൂഷണവും ദുരുപയോഗവും*
89,493
4,179
85,314
<1
ഉപദ്രവിക്കലും ഭീഷണിപ്പെടുത്തലും
42,779
281
42,496
1
ഭീഷണിപ്പെടുത്തലും അതിക്രമവും
3,987
77
3,909
1
സ്വയം ഉപദ്രവിക്കലും ആത്മഹത്യയും
145
2
143
1
തെറ്റായ വിവരങ്ങൾ
4
0
4
1
ആൾമാറാട്ടം
1,063
33
1,030
<1
സ്പാം
13,730
3,140
10,590
1
മയക്കുമരുന്നുകൾ
128,222
7,749
120,409
1
ആയുധങ്ങൾ
10,941
314
10,626
1
മറ്റ് നിയന്ത്രിത സാധനങ്ങൾ
9,719
124
9,593
1
വിദ്വേഷ സംഭാഷണം
3,310
67
3,242
1
ഭീകരവാദവും അക്രമാസക്തമായ തീവ്രവാദവും
104
1
103
1
പ്രാദേശികവും രാഷ്ട്രപരവുമായ അവലോകനം
ഈ വിഭാഗം ഭൂമിശാസ്ത്ര മേഖലകളുടെ സാമ്പിളിന്റെ അടിസ്ഥാനത്തിൽ, ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ മുൻകൂട്ടിയും ലംഘനങ്ങളുടെ ഇൻ-ആപ്പ് റിപ്പോർട്ടുകൾക്ക് മറുപടിയായിയും നടപ്പാക്കാനുള്ള ഞങ്ങളുടെ സേഫ്റ്റി ടീമുകൾ സ്വീകരിച്ച നടപടികളുടെ ഒരു അവലോകനം നൽകുന്നു. ഞങ്ങളുടെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങൾ ലോകമെമ്പാടുമുള്ള എല്ലാ Snapchat ഉള്ളടക്കത്തിനും—എല്ലാ Snapchat ഉപയോക്താക്കൾക്കും—അവരുടെ ലൊക്കേഷൻ പരിഗണിക്കാതെ ബാധകമാണ്.
എല്ലാ യൂറോപ്യൻ യൂണിയൻ അംഗരാജ്യങ്ങളും ഉൾപ്പെടെ വ്യക്തിഗത രാജ്യങ്ങൾക്കായുള്ള വിവരങ്ങൾ, അറ്റാച്ചു ചെയ്ത CSV ഫയൽ വഴി ഡൗൺലോഡ് ചെയ്യാൻ ലഭ്യമാണ്.
മേഖല
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
വടക്കേ അമേരിക്ക
3,468,315
2,046,888
യൂറോപ്പ്
2,815,474
1,810,223
ബാക്കി ലോകം
3,390,625
1,937,090
മൊത്തം
9,674,414
5,794,201
മേഖല
ഉള്ളടക്ക റിപ്പോർട്ടുകളും അക്കൗണ്ട് റിപ്പോർട്ടുകളും
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
വടക്കേ അമേരിക്ക
5,762,412
2,125,819
1,359,763
യൂറോപ്പ്
5,961,962
2,144,828
1,440,907
ബാക്കി ലോകം
8,041,950
2,007,799
1,316,070
മൊത്തം
19,766,324
6,278,446
4,116,740
മേഖല
മൊത്തം നടപടികൾ
നടപ്പിലാക്കിയ മൊത്തം അദ്വിതീയ അക്കൗണ്ടുകൾ
വടക്കേ അമേരിക്ക
1,342,496
785,067
യൂറോപ്പ്
670,646
422,012
ബാക്കി ലോകം
1,382,826
696,364
മൊത്തം
3,395,968
1,709,224
പരസ്യങ്ങളുടെ മോഡറേഷൻ
എല്ലാ പരസ്യങ്ങളും പരസ്യം ചെയ്യൽ നയങ്ങൾ പൂർണ്ണമായും പാലിക്കുന്നു എന്ന് ഉറപ്പാക്കാൻ സ്നാപ്പ് പ്രതിജ്ഞാബദ്ധമാണ്. പരസ്യങ്ങളോട് ഉത്തരവാദിത്തപരമായ സമീപനം ഞങ്ങൾ പുലർത്തുന്നു, അതുവഴി എല്ലാ സ്നാപ്പ്ചാറ്റർമാർക്കും ഒരു സുരക്ഷിത അനുഭവം സൃഷ്ടിക്കുന്നു. എല്ലാ പരസ്യങ്ങളും ഞങ്ങളുടെ അവലോകനത്തിനും അംഗീകാരത്തിനും വിധേയമാണ്. കൂടാതെ, ഉപയോക്തൃ ഫീഡ്ബാക്കിനോടുള്ള പ്രതികരണമായി ഉൾപ്പെടെ പരസ്യങ്ങൾ നീക്കം ചെയ്യാനുള്ള അവകാശം ഞങ്ങളിൽ നിക്ഷിപ്തമാണ്, അത് ഞങ്ങൾ ഗൗരവമായി എടുക്കുന്നു.
Snapchat-ൽ പ്രസിദ്ധീകരിച്ചതിനെത്തുടർന്ന് ഞങ്ങൾക്ക് റിപ്പോർട്ട് ചെയ്യപ്പെട്ട പെയ്ഡ് പരസ്യങ്ങൾക്കായുള്ള ഞങ്ങളുടെ മോഡറേഷനെക്കുറിച്ചുള്ള ഉൾക്കാഴ്ച ഞങ്ങൾ ചുവടെ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. വഞ്ചനാപരമായ ഉള്ളടക്കം, മുതിർന്നവർക്കായുള്ള ഉള്ളടക്കം, അക്രമാസക്തമോ അസ്വസ്ഥപ്പെടുത്തുന്നതോ ആയ ഉള്ളടക്കം, വിദ്വേഷ പ്രസംഗം, ബൗദ്ധിക സ്വത്തവകാശ ലംഘനം എന്നിവയുൾപ്പെടെ സ്നാപിൻെറ പരസ്യ നയങ്ങളിൽ വിവരിച്ചിരിക്കുന്ന വിവിധ കാരണങ്ങളാൽ സ്നാപ്ചാറ്റിലെ പരസ്യങ്ങൾ നീക്കം ചെയ്യാൻ കഴിയുമെന്ന് ശ്രദ്ധിക്കുക. കൂടാതെ, "സുതാര്യത" ടാബിന് കീഴിൽ values.snap.com-ൽ നിങ്ങൾക്ക് Snapchat-ൻെറ പരസ്യ ഗാലറി കണ്ടെത്താൻ കഴിയും.
ആകെ റിപ്പോർട്ട് ചെയ്ത പരസ്യങ്ങൾ
ആകെ നീക്കം ചെയ്ത പരസ്യങ്ങൾ
67,789
16,410

























