Privacy, Safety, and Policy Hub

GenAI ਜਿਨਸੀ ਸਮੱਗਰੀ ਨਾਲ ਲੋਕਾਂ ਦੇ ਜੁੜਨ ਬਾਰੇ ਨਵੀਂ ਖੋਜ

19 ਨਵੰਬਰ 2024

ਪਿਛਲੇ ਕੁਝ ਸਾਲਾਂ ਵਿੱਚ AI ਔਜ਼ਾਰਾਂ ਦੇ ਤੇਜ਼ੀ ਨਾਲ ਵਧਣ ਨੇ ਰਚਨਾਤਮਕਤਾ, ਸਿੱਖਣ ਅਤੇ ਜੁੜਨ ਦੀਆਂ ਨਵੀਆਂ ਸੰਭਾਵਨਾਵਾਂ ਪੈਦਾ ਕੀਤੀਆਂ ਹਨ ਅਤੇ ਇਹ ਅਗਲੇ ਸਮੇਂ ਵਿਚ ਵੀ ਜਾਰੀ ਰਹਿਣਗੀਆਂ। ਹਾਲਾਂਕਿ, ਇਸ ਤਕਨੀਕ ਨੇ ਮੌਜੂਦਾ ਆਨਲਾਈਨ ਜੋਖਮਾਂ ਵਿੱਚ ਨਵੇਂ ਪਹਿਲੂ ਵੀ ਜੋੜ ਦਿੱਤੇ ਹਨ। ਨਵੀਂ ਖੋਜ ਦੱਸਦੀ ਹੈ ਕਿ ਜਿਵੇਂ ਆਨਲਾਈਨ ਜਿਨਸੀ ਅਸਰ ਵਾਲੀਆਂ AI-ਤਸਵੀਰਾਂ ਅਤੇ ਵੀਡੀਓਜ਼ ਦੇ ਦਰਸ਼ਕਾਂ ਦੀ ਗਿਣਤੀ ਵਧ ਰਹੀ ਹੈ, ਕੁਝ ਸਮੱਗਰੀ ਦੇ ਗੈਰਕਾਨੂੰਨੀ ਹੋਣ ਬਾਰੇ ਜਾਗਰੂਕਤਾ ਅਜੇ ਵੀ ਚੁਣੌਤੀ ਹੈ।

ਕਿਸ਼ੋਰਾਂ ਅਤੇ ਨੌਜਵਾਨਾਂ ਦੀਆਂ ਸੋਚਾਂ ਅਤੇ ਵਤੀਰੇ ਬਾਰੇ ਸਾਰੇ ਪਲੇਟਫਾਰਮਾਂ ਅਤੇ ਸੇਵਾਵਾਂ 'ਤੇ ਬਿਹਤਰ ਸਮਝ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ, Snap ਹਰ ਸਾਲ ਪੂਰੇ ਉਦਯੋਗ 'ਤੇ ਆਧਾਰਿਤ ਖੋਜ ਕਰਦਾ ਹੈ ਅਤੇ ਸਾਂਝੀ ਕਰਦਾ ਹੈ, ਜਿਸਨੂੰ ਡਿਜੀਟਲ ਤੰਦਰੁਸਤੀ ਅੰਕ ਕਿਹਾ ਜਾਂਦਾ ਹੈ। (Snap ਨੇ ਇਸ ਖੋਜ ਦੀ ਸ਼ੁਰੂਆਤ ਕੀਤੀ ਹੈ, ਪਰ ਇਹ ਆਮ ਤੌਰ 'ਤੇ ਡਿਜੀਟਲ ਜਗ੍ਹਾਵਾਂ ਵਿੱਚ ਨਵੀਂ ਪੀੜ੍ਹੀ ਦੇ ਤਜ਼ਰਬਿਆਂ ਦੀ ਜਾਣਕਾਰੀ ਦਿੰਦੀ ਹੈ, Snapchat 'ਤੇ ਕੋਈ ਖ਼ਾਸ ਧਿਆਨ ਦਿੱਤੇ ਬਿਨਾਂ।) ਜਦੋਂ ਅਸੀਂ ਫਰਵਰੀ 2025 ਵਿੱਚ ਅੰਤਰਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਅਤ ਇੰਟਰਨੈੱਟ ਦਿਵਸ ਦੇ ਮੌਕੇ 'ਤੇ ਆਪਣੇ ਤੀਜੇ ਸਾਲ ਦੇੇ ਅਧਿਐਨ ਦੀ ਪੂਰੀ ਰਿਪੋਰਟ ਜਾਰੀ ਕਰਨ ਦੀ ਯੋਜਨਾ ਬਣਾ ਰਹੇ ਹਾਂ, ਅਸੀਂ ਕੁਝ ਮੁੱਖ ਖੋਜਾਂ ਦੀ ਪੂਰਵ-ਝਲਕ ਸਾਂਝਾ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਕਿਸ ਤਰ੍ਹਾਂ ਕਿਸ਼ੋਰ, ਨੌਜਵਾਨ ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਮਾਪੇ ਵੀ ਜਨਰੇਟਿਵ AI ਆਧਾਰਿਤ ਜਿਨਸੀ ਸਮੱਗਰੀ ਨਾਲ ਜੁੜ ਰਹੇ ਹਨ ਅਤੇ ਇਸ 'ਤੇ ਪ੍ਰਤਿਕਿਰਿਆ ਦੇ ਰਹੇ ਹਨ। ਅਸੀਂ ਅਜਿਹਾ ਇਸ ਹਫ਼ਤੇ ਬੱਚਿਆਂ ਦੇ ਜਨਸੀ ਸ਼ੋਸ਼ਣ ਅਤੇ ਮਾੜੇ ਸਲੂਕ 'ਤੇ ਮੁੱਖ ਧਿਆਨ ਦੇਣ ਲਈ ਕਰ ਰਹੇ ਹਾਂ ਅਤੇ Empowering Voices DC ਸੰਮੇਲਨ ਵਿੱਚ ਆਪਣੀ ਭਾਗੀਦਾਰੀ ਦੇ ਸੰਦਰਭ ਵਿੱਚ ਵੀ, ਜਿਸਦਾ ਕੇਂਦਰ AI-ਸਿਰਜੀ ਜਿਨਸੀ ਸਮੱਗਰੀ ਨਾਲ ਜੁੜੇ ਨੁਕਸਾਨਾਂ ਦਾ ਹੱਲ ਖੋਜਣ 'ਤੇ ਹੈ।

ਉਦਾਹਰਨ ਲਈ, ਸਾਡੇ ਅਧਿਐਨ ਵਿੱਚ, ਜਿਸ ਰਾਹੀਂ 6 ਦੇਸ਼ਾਂ ਵਿੱਚੋਂ 9,007 ਕਿਸ਼ੋਰਾਂ, ਨੌਜਵਾਨਾਂ ਅਤੇ ਕਿਸ਼ੋਰਾਂ ਦੇ ਮਾਪਿਆਂ ਦਾ ਸਰਵੇਖਣ ਕੀਤਾ 1, 24% ਨੇ ਕਿਹਾ ਕਿ ਉਨ੍ਹਾਂ ਨੇ ਕੋਈ ਨਾ ਕੋਈ ਜਿਨਸੀ ਕਿਸਮ ਦੀਆਂ AI-ਸਿਰਜੀਆਂ ਤਸਵੀਰਾਂ ਜਾਂ ਵੀਡੀਓਜ਼ ਦੇਖੀਆਂ ਹਨ। ਜਿਨ੍ਹਾਂ ਨੇ ਇਸ ਕਿਸਮ ਦੀ ਸਮੱਗਰੀ ਦੇਖਣ ਦਾ ਦਾਅਵਾ ਕੀਤਾ, ਉਨ੍ਹਾਂ ਵਿੱਚੋਂ ਸਿਰਫ਼ 2% ਨੇ ਕਿਹਾ ਕਿ ਤਸਵੀਰ ਵਿੱਚ ਇਨਸਾਨ 18 ਸਾਲ ਤੋਂ ਘੱਟ ਉਮਰ ਦਾ ਸੀ।

ਹੱਲਾਸ਼ੇਰੀ ਵਾਲੀ ਗੱਲ ਇਹ ਹੈ ਕਿ ਜਦੋਂ ਲੋਕਾਂ ਨੇ ਇਸ ਕਿਸਮ ਦੀ ਸਮੱਗਰੀ ਵੇਖੀ, ਤਾਂ 10 ਵਿੱਚੋਂ 9 ਨੇ ਕੋਈ ਨਾ ਕੋਈ ਕਦਮ ਚੁੱਕਿਆ, ਜਿਸ ਵਿੱਚ ਸਮੱਗਰੀ ਨੂੰ ਬਲੌਕ ਜਾਂ ਮਿਟਾਉਣਾ (54%) ਤੋਂ ਲੈ ਕੇ ਵਿਸ਼ਵਾਸਯੋਗ ਦੋਸਤਾਂ ਜਾਂ ਪਰਿਵਾਰ ਨਾਲ ਗੱਲਬਾਤ ਕਰਨੀ (52%) ਸ਼ਾਮਲ ਹੈ। ਹਾਲਾਂਕਿ, ਸਿਰਫ 42% ਨੇ ਕਿਹਾ ਕਿ ਉਨ੍ਹਾਂ ਨੇ ਇਸ ਸਮੱਗਰੀ ਨੂੰ ਉਸ ਪਲੇਟਫਾਰਮ ਜਾਂ ਸੇਵਾ 'ਤੇ ਰਿਪੋਰਟ ਕੀਤਾ ਜਿੱਥੇ ਉਨ੍ਹਾਂ ਨੇ ਇਸਨੂੰ ਦੇਖਿਆ ਜਾਂ ਕਿਸੇ ਹਾਟਲਾਈਨ / ਹੈਲਪਲਾਈਨ ਨੂੰ ਸੂਚਿਤ ਕੀਤਾ। ਇਹ ਜਾਣਕਾਰੀ ਵੱਡੇ ਰੁਝਾਨ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ, ਜਿਸ ਵਿੱਚ ਡਿਜੀਟਲ ਸੁਰੱਖਿਆ ਨਾਲ ਸਬੰਧfਤ ਮਾਮਲਿਆਂ ਦੀ ਰਿਪੋਰਟਿੰਗ ਦਰ ਵਿੱਚ ਕੁੱਲ ਮਿਲਾਕੇ ਘਾਟ ਦੇਖੀ ਗਈ ਹੈ। ਅਸੀਂ ਆਪਣੀ ਪਿਛਲੀ ਪੋਸਟ ਵਿੱਚ ਇਸ ਗੱਲ ਦੀ ਮਹੱਤਤਾ ਉਜਾਗਰ ਕੀਤੀ ਸੀ ਕਿ ਰਿਪੋਰਟਿੰਗ ਬਾਰੇ ਨਕਾਰਾਤਮਕ ਧਾਰਨਾਵਾਂ ਖ਼ਤਮ ਕਰਨਾ ਕਿੰਨਾ ਜਰੂਰੀ ਹੈ ਤਾਂ ਜੋ ਨੌਜਵਾਨ ਔਨਲਾਈਨ ਕੁਝ ਸਮੱਸਿਆ ਭਰਪੂਰ ਸਮੱਗਰੀ ਅਤੇ ਵਰਤਾਰਿਆਂ ਦੇ ਰੂਬਰੂ ਹੋਣ ਨੂੰ ਆਮ ਨਾ ਸਮਝਣ ਲੱਗਣ ਜਾਂ ਰਿਪੋਰਟਿੰਗ ਨੂੰ ਸ਼ਿਕਾਇਤ ਕਰਨ ਦੇ ਬਰਾਬਰ ਨਾ ਮੰਨਣ।

ਹੋਰ ਵੀ ਚਿੰਤਾਜਨਕ ਗੱਲ ਇਹ ਹੈ ਕਿ 40% ਤੋਂ ਵੱਧ ਜਵਾਬਦਾਤੇ ਇਸ ਗੱਲ ਨੂੰ ਲੈ ਕੇ ਅਸਮੰਜਸ ਵਿਚ ਸਨ ਕਿ ਪਲੇਟਫਾਰਮਾਂ/ਸੇਵਾਵਾਂ ਲਈ ਨਾਬਾਲਗਾਂ ਦੀਆਂ ਜਿਨਸੀ ਤਸਵੀਰਾਂ ਦੀ ਰਿਪੋਰਟ ਕਰਨ ਦੀ ਕਾਨੂੰਨੀ ਜ਼ਿੰਮੇਵਾਰੀ ਹੁੰਦੀ ਹੈ, ਭਾਵੇਂ ਇਹ ਤਸਵੀਰਾਂ ਮਜ਼ਾਕ ਜਾਂ ਮੀਮਾਂ ਦੇ ਤੌਰ 'ਤੇ ਹੀ ਬਣਾਈ ਗਈਆਂ ਹੋਣ। ਜਦੋਂ ਕਿ ਵੱਧ ਗਿਣਤੀ (70% ਤੋਂ ਵੱਧ) ਇਹ ਸਮਝਦੇ ਹਨ ਕਿ ਕਿਸੇ ਵਿਅਕਤੀ ਦੀ ਨਕਲੀ ਜਿਨਸੀ ਸਮੱਗਰੀ ਬਣਾਉਣ ਲਈ AI ਤਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਕਰਨੀ ਜਾਂ ਨਾਬਾਲਗਾਂ ਦੀਆਂ ਜਿਨਸੀ ਤਸਵੀਰਾਂ ਨੂੰ ਰੱਖਣਾ, ਦੇਖਣਾ ਜਾਂ ਸਾਂਝਾ ਕਰਨਾ ਗੈਰਕਾਨੂੰਨੀ ਹੈ, ਇਹ ਖੋਜ ਦੱਸਦੀ ਹੈ ਕਿ ਜਨਤਾ ਨੂੰ ਇਸ ਕਿਸਮ ਦੀ ਸਮੱਗਰੀ ਨਾਲ ਜੁੜੀਆਂ ਕਾਨੂੰਨੀ ਲੋੜਾਂ ਬਾਰੇ ਜਾਗਰੂਕ ਕਰਨ ਲਈ ਹਾਲੇ ਕਾਫੀ ਕੰਮ ਕੀਤਾ ਜਾਣਾ ਬਾਕੀ ਹੈ।

ਉਦਾਹਰਨ ਲਈ, ਅਮਰੀਕਾ ਵਿੱਚ ਲਗਭਗ 40% ਜਵਾਬ ਦੇਣ ਵਾਲਿਆਂ ਨੇ ਕਿਹਾ ਕਿ ਉਹ ਮੰਨਦੇ ਹਨ ਕਿ ਕਿਸੇ ਵਿਅਕਤੀ ਦੀ ਨਕਲੀ ਜਿਨਸੀ ਤਸਵੀਰ ਬਣਾਉਣ ਲਈ AI ਤਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਕਰਨਾ ਕਾਨੂੰਨੀ ਹੈ। ਅਤੇ, ਗਵਾਹੀ ਦੇ ਤੌਰ 'ਤੇ, ਅਸੀਂ ਉਦਯੋਗ ਦੇ ਸਾਥੀਆਂ ਤੋਂ ਚਿੰਤਾਜਨਕ ਰੁਝਾਨ ਬਾਰੇ ਸੁਣਿਆ ਹੈ: ਇਸ ਕਿਸਮ ਦੀ ਸਮੱਗਰੀ ਦੇ ਵਧਣ ਨਾਲ, ਖਾਸ ਕਰਕੇ ਕੁਝ ਕਿਸ਼ੋਰ ਲੜਕੀਆਂ ਇਹ ਮਹਿਸੂਸ ਕਰ ਰਹੀਆਂ ਹਨ ਕਿ ਜੇ ਉਹ AI-ਸੰਪਾਦਿਤ ਜਿਨਸੀ ਤਸਵੀਰਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਨਹੀਂ ਹਨ, ਜੋ ਉਨ੍ਹਾਂ ਦੇ ਸਹਿਯੋਗੀਆਂ ਵੱਲੋਂ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਬਣਾਈਆਂ ਅਤੇ ਸਾਂਝੀਆਂ ਜਾ ਰਹੀਆਂ ਹਨ, ਤਾਂ ਉਹ "ਪਿੱਛੇ ਰਹਿ ਰਹੀਆਂ" ਹਨ। ਇਹ ਚਿੰਤਾਜਨਕ ਗੱਲ ਇਸ ਚੀਜ਼ 'ਤੇ ਹੋਰ ਜ਼ੋਰ ਦਿੰਦੀ ਹੈ ਕਿ ਇਸ ਖਾਸ ਔਨਲਾਈਨ ਖਤਰੇ ਬਾਰੇ ਜਾਗਰੂਕਤਾ ਪੈਦਾ ਕਰਨ ਅਤੇ ਸਿੱਖਿਆ ਦੇਣ ਦੀ ਲੋੜ ਹੈ। ਇਸ ਵਿੱਚ ਵਿਸ਼ਵਾਸਯੋਗ ਬਾਲਗਾਂ ਅਤੇ ਜਾਗਰੂਕ ਸਹਿਯੋਗੀਆਂ ਨੂੰ ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਵਰਤਾਰਿਆਂ ਨੂੰ ਘਟਾਉਣ ਵਿੱਚ ਸਰਗਰਮ ਭੂਮਿਕਾ ਨਿਭਾਉਣੀ ਚਾਹੀਦੀ ਹੈ।

Snap ਦੀ ਜਾਰੀ ਵਚਨਬੱਧਤਾ

Snap ਵਿਖੇ ਅਸੀਂ Snapchat 'ਤੇ ਅਤੇ ਤਕਨੀਕੀ ਮਾਹੌਲ ਵਿੱਚ ਸੁਰੱਖਿਅਤ, ਸਿਹਤਮੰਦ ਅਤੇ ਵਧੇਰੇ ਸਕਾਰਾਤਮਕ ਤਜ਼ਰਬੇ ਵਧਾਉਣ ਲਈ ਸਰੋਤਾਂ, ਔਜ਼ਾਰਾਂ ਅਤੇ ਤਕਨਾਲੋਜੀ ਵਿੱਚ ਲਗਾਤਾਰ ਨਿਵੇਸ਼ ਕਰ ਰਹੇ ਹਾਂ।

ਕੁਝ ਮਾਮਲਿਆਂ ਵਿੱਚ, ਅਸੀਂ ਵਤੀਰੇ ਦੇ "ਸੰਕੇਤਾਂ" ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਾਂ, ਤਾਂ ਜੋ ਸੰਭਾਵਿਤ ਗੈਰ-ਕਾਨੂੰਨੀ ਸਰਗਰਮੀਆਂ ਦੀ ਪਛਾਣ ਕਰ ਸਕੀਏ, ਮਾੜੇ ਇਰਾਦੇ ਵਾਲੇ ਲੋਕਾਂ ਨੂੰ ਪਹਿਲਾਂ ਹੀ ਹਟਾ ਸਕੀਏ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਸੂਚਨਾ ਅਧਿਕਾਰੀਆਂ ਨੂੰ ਦੇ ਸਕੀਏ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਸੇਵਾ ਹੋਣ ਦੇ ਨਾਤੇ ਜੋ ਗੱਲਬਾਤ ਵਾਲਾ AI ਚੈਟਬੌਟ ਸ਼ਾਮਲ ਕਰਦਾ ਹੈ, ਅਸੀਂ Snapchat 'ਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਸਮੱਗਰੀ ਪੈਦਾ ਹੋਣ ਤੋਂ ਰੋਕਣ ਲਈ ਵਾਧੂ ਸਾਵਧਾਨੀਆਂ ਵਰਤਦੇ ਹਾਂ। ਨਾਲ ਹੀ, ਅਸੀਂ ਹੋਰ ਪਲੇਟਫਾਰਮਾਂ 'ਤੇ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਦੇ ਸਾਂਝੇ ਕਰਨ ਅਤੇ ਵੰਡਣ ਤੋਂ ਸੁਰੱਖਿਆ ਕਰਨ ਲਈ ਵੀ ਕਦਮ ਚੁੱਕਦੇ ਹਾਂ। ਅਸੀਂ ਨਾਬਾਲਗਾਂ ਦੀਆਂ ਸ਼ੱਕੀ AI-ਸਿਰਜੀਆਂ ਜਿਨਸੀ ਤਸਵੀਰਾਂ ਨੂੰ ਬਿਲਕੁਲ "ਅਸਲ" ਬੱਚਿਆਂ ਦੀ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਅਤੇ ਮਾੜੇ ਸਲੂਕ ਦੀਆਂ ਤਸਵੀਰਾਂ (CSEAI) ਵਾਂਗ ਹੀ ਮਾਨਦੇ ਹਾਂ, ਇਸ ਸਮੱਗਰੀ ਦੀ ਜਾਣਕਾਰੀ ਮਿਲਦੇ ਹੀ, ਅਸੀਂ ਇਸਨੂੰ ਹਟਾ ਦਿੰਦੇ ਹਾਂ ਅਤੇ ਉਲੰਘਣਾ ਕਰਨ ਵਾਲੇ ਖਾਤੇ ਨੂੰ ਮੁਅੱਤਲ ਕਰ ਦਿੰਦੇ ਹਾਂ, ਅਤੇ ਅਸੀਂ ਇਸ ਦੀ ਰਿਪੋਰਟ ਲਾਪਤਾ ਅਤੇ ਸ਼ੋਸ਼ਣ ਕੀਤੇ ਬੱਚਿਆਂ ਦੇ ਰਾਸ਼ਟਰੀ ਕੇਂਦਰ (NCMEC) ਨੂੰ ਕਰਦੇ ਹਾਂ। ਇਸਦੇ ਇਲਾਵਾ, ਅਸੀਂ CSEAI ਦੇ ਫੈਲਾਅ ਨੂੰ ਰੋਕਣ ਲਈ ਵਿਕਸਿਤ ਤਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਅਤੇ ਉਸ ਨੂੰ ਤੈਨਾਤ ਕਰਦੇ ਹਾਂ, ਜਿਸ ਵਿੱਚ PhotoDNA (ਜੋ ਮੌਜੂਦਾ ਗੈਰਕਾਨੂੰਨੀ ਤਸਵੀਰਾਂ ਦੀਆਂ ਨਕਲਾਂ ਪਛਾਣਦਾ ਹੈ) ਅਤੇ Google ਦਾ CSAI ਮਿਲਾਨ (ਜੋ ਮੌਜੂਦਾ ਗੈਰਕਾਨੂੰਨੀ ਵੀਡੀਓਜ਼ ਦੀਆਂ ਨਕਲਾਂ ਪਛਾਣਦਾ ਹੈ) ਸ਼ਾਮਲ ਹਨ। ਅਸੀਂ ਹਾਲ ਹੀ ਵਿੱਚ Google ਦੀ ਸਮੱਗਰੀ ਸੁਰੱਖਿਆ API ਦੀ ਵਰਤੋਂ ਸ਼ੁਰੂ ਕੀਤੀ ਹੈ, ਜੋ ਜਨਤਕ ਸਮੱਗਰੀ 'ਤੇ ਨਵੀਆਂ, "ਕਦੇ ਵੀ ਪਹਿਲਾਂ ਹੈਸ਼ ਨਾ ਕੀਤੀਆਂ" ਤਸਵੀਰਾਂ ਦੀ ਪਛਾਣ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਦੀ ਹੈ। ਅਸੀਂ NCMEC ਨਾਲ ਵੀ ਸਹਿਯੋਗ ਕੀਤਾ ਹੈ ਤਾਂ ਕਿ ਪਿਛਲੇ ਸਾਲ ਜਨਰੇਟਿਵ AI ਨਾਲ ਜੁੜੇ ਬੱਚਿਆਂ ਦੇ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਦੀ ਸਮੱਗਰੀ ਸਬੰਧੀ ਉਨ੍ਹਾਂ ਨੂੰ ਮਿਲੀਆਂ 4,700 ਰਿਪੋਰਟਾਂ ਦੇ ਵਿਲੱਖਣ ਡਿਜੀਟਲ ਹਸਤਾਖ਼ਰਾਂ (ਜਾਂ "ਹੈਸ਼ਜਾਂ") ਨੂੰ ਕਿਵੇਂ ਵਰਤਿਆ ਜਾ ਸਕੇ।

ਅਸੀਂ ਕਨੂੰਨੀ ਅਮਲੀਕਰਨ ਨਾਲ ਸਹਿਯੋਗ ਕਰਦੇ ਹਾਂ, ਉਨ੍ਹਾਂ ਦੀਆਂ ਜਾਂਚਾਂ ਵਿੱਚ ਮਦਦ ਦਿੰਦੇ ਹਾਂ, ਅਤੇ ਸਾਡੀਆਂ ਗਲੋਬਲ ਭਰੋਸਾ ਅਤੇ ਸੁਰੱਖਿਆ ਅਤੇ ਕਨੂੰਨ ਅਮਲੀਕਰਨ ਦੀਆਂ ਸੰਚਾਲਨ ਟੀਮਾਂ ਵਿੱਚ ਭਾਰੀ ਨਿਵੇਸ਼ ਕਰਦੇ ਹਾਂ, ਜੋ 24/7 ਕੰਮ ਕਰਦੀਆਂ ਹਨ ਤਾਂ ਜੋ ਸਾਡੇ ਭਾਈਚਾਰੇ ਦੀ ਸੁਰੱਖਿਆ ਯਕੀਨੀ ਬਣਾਈ ਜਾ ਸਕੇ। ਅਸੀਂ ਸੰਯੁਕਤ ਰਾਜ ਵਿੱਚ ਕਾਨੂੰਨ ਲਾਗੂ ਕਰਨ ਵਾਲਿਆਂ ਲਈ ਸਲਾਨਾ ਸੰਮੇਲਨ ਕਰਦੇ ਹਾਂ ਤਾਂ ਜੋ ਅਧਿਕਾਰੀ ਅਤੇ ਏਜੰਸੀਆਂ ਨੂੰ ਪੂਰੀ ਜਾਣਕਾਰੀ ਹੋਵੇ ਕਿ ਸਾਡੇ ਪਲੇਟਫਾਰਮ 'ਤੇ ਹੋ ਰਹੀ ਕਿਸੇ ਵੀ ਗੈਰਕਾਨੂੰਨੀ ਸਰਗਰਮੀ ਦੇ ਖਿਲਾਫ਼ ਮੁਨਾਸਬ ਕਾਰਵਾਈ ਕਿਵੇਂ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ।

ਅਸੀਂ ਆਪਣੀ ਐਪ ਵਿੱਚ ਰਿਪੋਰਟਿੰਗ ਔਜ਼ਾਰਾਂ ਦਾ ਵੀ ਵਿਸਤਾਰ ਕਰ ਰਹੇ ਹਾਂ, ਜਿਸ ਵਿੱਚ ਸਾਡੇ ਭਾਈਚਾਰੇ ਨੂੰ ਨਗਨਤਾ ਅਤੇ ਜਿਨਸੀ ਸਮੱਗਰੀ, ਖਾਸ ਤੌਰ 'ਤੇ CSEAI, ਦੀ ਇਤਲਾਹ ਦੇਣ ਦੇ ਵਿਕਲਪ ਸ਼ਾਮਲ ਹਨ। ਪਰੇਸ਼ਾਨੀ ਵਾਲੀ ਸਮੱਗਰੀ ਅਤੇ ਖਾਤਿਆਂ ਦੀ ਰਿਪੋਰਟ ਕਰਨਾ ਤਕਨੀਕੀ ਕੰਪਨੀਆਂ ਨੂੰ ਆਪਣੀਆਂ ਸੇਵਾਵਾਂ ਤੋਂ ਮਾੜੇ ਲੋਕਾਂ ਨੂੰ ਹਟਾਉਣ ਅਤੇ ਦੂਜਿਆਂ ਦਾ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਹੋਰ ਸਰਗਰਮੀ ਨੂੰ ਅਸਫਲ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਨ ਲਈ ਬਹੁਤ ਮਹੱਤਵਪੂਰਨ ਹੈ।

ਹਾਲ ਹੀ ਵਿੱਚ, ਅਸੀਂ ਆਪਣੇ ਪਰਿਵਾਰ ਕੇਂਦਰ ਔਜ਼ਾਰ ਸੂਟ ਵਿੱਚ ਨਵੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਸ਼ਾਮਲ ਕੀਤੀਆਂ ਹਨ, ਜਿਨ੍ਹਾਂ ਦੀ ਵਰਤੋਂ ਮਾਪੇ ਇਹ ਸਮਝਣ ਲਈ ਕਰ ਸਕਦੇ ਹਨ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਕਿਸ਼ੋਰ Snapchat, ਸਮੇਤ ਸਾਡੇ AI ਚੈਟਬੋਟ ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕਰ ਰਹੇ ਹਨ। ਅਸੀਂ ਸਿੱਖਿਅਕਾਂ ਅਤੇ ਸਕੂਲ ਪ੍ਰਸ਼ਾਸਕਾਂ ਦੀ ਮਦਦ ਕਰਨ ਲਈ ਨਵੇਂ ਸਰੋਤ ਵੀ ਜਾਰੀ ਕੀਤੇ ਹਨ, ਜਿਨ੍ਹਾਂ ਨਾਲ ਉਹ ਸਮਝ ਸਕਣ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਵਿਦਿਆਰਥੀ Snapchat ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕਰਦੇ ਹਨ, ਇਹ ਸਰੋਤ ਸਕੂਲਾਂ ਨੂੰ ਵਿਦਿਆਰਥੀਆਂ ਲਈ ਸੁਰੱਖਿਅਤ ਅਤੇ ਸਹਿਯੋਗੀ ਮਾਹੌਲ ਬਣਾਉਣ ਦੇ ਯਤਨਾਂ ਵਿੱਚ ਸਹਾਇਕ ਹਨ।

ਅਤੇ ਅਸੀਂ ਔਨਲਾਈਨ ਜਿਨਸੀ ਨੁਕਸਾਨਾਂ ਬਾਰੇ ਜਨਤਕ ਅਤੇ Snapchatter ਦੀ ਜਾਗਰੂਕਤਾ ਵਧਾਉਣ ਲਈ ਨਿਵੇਸ਼ ਕਰਦੇ ਰਹਿੰਦੇ ਹਾਂ। ਸਾਡੀ ਐਪ ਅੰਦਰਲੇ"ਸੁਰੱਖਿਆ ਸਨੈਪਸ਼ਾਟ" ਐਪੀਸੋਡ ਜਿਨਸੀ ਜੋਖ਼ਮਾਂ 'ਤੇ ਧਿਆਨ ਦਵਾਉਂਦੇ ਹਨ, ਜਿਸ ਵਿੱਚ ਬੱਚਿਆਂ ਨੂੰ ਔਨਲਾਈਨ ਬਹਿਕਾਉਣਾ ਅਤੇ ਤਸਕਰੀ ਵਰਗੇ ਵਿਸ਼ੇ ਸ਼ਾਮਲ ਹਨ। ਅਸੀਂ Know2Protect ਨੂੰ ਸਹਿਯੋਗ ਦੇਣ ਵਾਲੀ ਪਹਿਲੀ ਸੰਸਥਾ ਸੀ, ਜੋ ਕਿ ਅਮਰੀਕਾ ਦੇ ਘਰ ਸੁਰੱਖਿਆ ਵਿਭਾਗ ਦੀ ਮੁਹਿੰਮ ਹੈ, ਇਸਦਾ ਮਕਸਦ ਨੌਜਵਾਨਾਂ, ਮਾਪਿਆਂ, ਵਿਸ਼ਵਾਸਯੋਗ ਬਾਲਗਾਂ ਅਤੇ ਨੀਤੀ-ਨਿਰਧਾਰਕਾਂ ਨੂੰ ਔਨਲਾਈਨ ਬੱਚਿਆਂ ਦੇ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਬਾਰੇ ਸਿੱਖਿਆ ਅਤੇ ਸਮਰੱਥਾ ਦੇਣਾ ਹੈ।

ਅਸੀਂ ਮਾਪਿਆਂ, ਨੌਜਵਾਨਾਂ, ਸਿੱਖਿਅਕਾਂ ਅਤੇ ਨੀਤੀ-ਨਿਰਧਾਰਕਾਂ ਸਮੇਤ ਹਰ ਤਰ੍ਹਾਂ ਦੇ ਹਿੱਤ-ਧਾਰਕਾਂ ਨਾਲ ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਸਮਾਜਿਕ ਮਸਲਿਆਂ 'ਤੇ ਕੰਮ ਜਾਰੀ ਰੱਖਣ ਲਈ ਉਤਸ਼ਾਹਤ ਹਾਂ, ਸਾਡੇ ਪਲੇਟਫਾਰਮਾਂ-ਪਾਰ ਅਧਿਐਨ ਤੋਂ ਮਿਲੀਆਂ ਅੰਦਰੂਨੀ-ਝਾਤਾਂ ਤੋਂ ਉਮੀਦ ਹੈ ਕਿ ਨਵੀਆਂ ਵਿਚਾਰਧਾਰਾਵਾਂ ਅਤੇ ਮੌਕਿਆਂ ਨੂੰ ਜਨਮ ਦੇਣ ਵਿੱਚ ਸਹਾਇਕ ਹੋਣਗੀਆਂ, ਜੋ ਲੋਕਾਂ ਨੂੰ ਮੌਜੂਦਾ ਅਤੇ ਨਵੇਂ ਔਨਲਾਈਨ ਖਤਰਿਆਂ ਬਾਰੇ ਜਾਗਰੂਕ ਕਰਨ ਅਤੇ ਇਨ੍ਹਾਂ ਖ਼ਤਰਿਆਂ ਦੇ ਮੁਕਾਬਲੇ ਲਈ ਉਪਲਬਧ ਸਰੋਤਾਂ ਦੀ ਜਾਣਕਾਰੀ ਦੇਣ ਵਿੱਚ ਸਹਾਇਤਾ ਕਰ ਸਕਦੇ ਹਨ।

— ਵੀਰਾਜ ਦੋਸ਼ੀ, ਪਲੇਟਫਾਰਮ ਸੁਰੱਖਿਆ ਮੁਖੀ

ਖ਼ਬਰਾਂ 'ਤੇ ਵਾਪਸ ਜਾਓ

1

ਅਧਿਐਨ ਵਿੱਚ ਸ਼ਾਮਲ ਦੇਸ਼ ਹਨ: ਆਸਟਰੇਲੀਆ, ਫਰਾਂਸ, ਜਰਮਨੀ, ਭਾਰਤ, ਯੂਕੇ ਅਤੇ ਅਮਰੀਕਾ।

1

ਅਧਿਐਨ ਵਿੱਚ ਸ਼ਾਮਲ ਦੇਸ਼ ਹਨ: ਆਸਟਰੇਲੀਆ, ਫਰਾਂਸ, ਜਰਮਨੀ, ਭਾਰਤ, ਯੂਕੇ ਅਤੇ ਅਮਰੀਕਾ।