ਚੋਣ ਅਖੰਡਤਾ ਬਾਰੇ ਸਮਾਜਕ ਸਭਾ ਸਮੂਹਾਂ ਨਾਲ ਸਾਡੀ ਪ੍ਰਤੀਕਿਰਿਆ ਸਾਂਝੀ ਕਰਨਾ

22 ਅਪ੍ਰੈਲ 2024

ਇਸ ਮਹੀਨੇ ਦੀ ਸ਼ੁਰੂਆਤ 'ਚ Snap ਅਤੇ ਹੋਰ ਵੱਡੀਆਂ ਤਕਨੀਕੀ ਕੰਪਨੀਆਂ ਨੂੰ 200 ਤੋਂ ਵੱਧ ਸਮਾਜਕ ਸਭਾ ਸੰਗਠਨਾਂ, ਖੋਜਕਰਤਾਵਾਂ ਅਤੇ ਪੱਤਰਕਾਰਾਂ ਤੋਂ ਪੱਤਰ ਮਿਲਿਆ, ਜਿਸ 'ਚ ਸਾਨੂੰ 2024 'ਚ ਚੋਣਾਂ ਦੀ ਅਖੰਡਤਾ ਦੀ ਰੱਖਿਆ ਲਈ ਆਪਣੇ ਯਤਨਾਂ ਨੂੰ ਵਧਾਉਣ ਦੀ ਅਪੀਲ ਕੀਤੀ ਗਈ। ਅਸੀਂ ਉਨ੍ਹਾਂ ਦੀ ਵਕਾਲਤ ਦੀ ਸ਼ਲਾਘਾ ਕਰਦੇ ਹਾਂ ਅਤੇ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਉਨ੍ਹਾਂ ਦੀ ਵਚਨਬੱਧਤਾ ਨੂੰ ਸਾਂਝਾ ਕਰਦੇ ਹਾਂ ਕਿ ਦੁਨੀਆ ਭਰ ਦੇ ਲੋਕ ਉਨ੍ਹਾਂ ਦੀਆਂ ਚੋਣਾਂ ਵਿੱਚ ਹਿੱਸਾ ਲੈ ਸਕਣ, ਜਦੋਂ ਕਿ ਸਾਡੇ ਲੋਕਤੰਤਰ ਦੀ ਰੱਖਿਆ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਨ ਲਈ ਅਸੀਂ ਹਰ ਸੰਭਵ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੇ ਹਾਂ।

ਇਨ੍ਹਾਂ ਮੁੱਦਿਆਂ ਦੀ ਮਹੱਤਤਾ ਅਤੇ ਸੈਂਕੜੇ ਲੱਖਾਂ ਲੋਕਾਂ ਪ੍ਰਤੀ ਸਾਡੀ ਡੂੰਘੀ ਜ਼ਿੰਮੇਵਾਰੀ ਨੂੰ ਦੇਖਦੇ ਹੋਏ ਜੋ ਆਪਣੇ ਦੋਸਤਾਂ ਅਤੇ ਪਰਿਵਾਰ ਨਾਲ ਸੰਚਾਰ ਕਰਨ ਅਤੇ ਸਾਡੀ ਸਮੱਗਰੀ ਰਾਹੀਂ ਦੁਨੀਆ ਬਾਰੇ ਹੋਰ ਜਾਣਨ ਲਈ Snapchat ਵਰਤਦੇ ਹਨ, ਅਸੀਂ ਮਹਿਸੂਸ ਕੀਤਾ ਕਿ ਸਾਡੀ ਪ੍ਰਤੀਕਿਰਿਆ ਨੂੰ ਜਨਤਕ ਤੌਰ 'ਤੇ ਜਾਰੀ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਸੀ। ਤੁਸੀਂ ਹੇਠਾਂ ਸਾਡਾ ਪੱਤਰ ਪੜ੍ਹ ਸਕਦੇ ਹੋ ਅਤੇ ਇਸ ਸਾਲ ਦੀਆਂ ਚੋਣਾਂ ਲਈ ਸਾਡੀਆਂ ਯੋਜਨਾਵਾਂ ਬਾਰੇ ਇੱਥੇ ਹੋਰ ਜਾਣ ਸਕਦੇ ਹੋ।

***

21 ਅਪ੍ਰੈਲ 2024

ਪਿਆਰੇ ਸਮਾਜਕ ਸਭਾ ਸੰਗਠਨੋਂ:

ਦੁਨੀਆ ਭਰ ਵਿੱਚ ਬੇਮਿਸਾਲ ਚੋਣ ਸਰਗਰਮੀ ਦੇ ਇਸ ਸਾਲ ਵਿੱਚ ਤੁਹਾਡੀ ਲਗਾਤਾਰ ਚੌਕਸੀ ਅਤੇ ਵਕਾਲਤ ਲਈ ਧੰਨਵਾਦ। ਅਸੀਂ ਇਸ ਬਾਰੇ ਹੋਰ ਸਾਂਝਾ ਕਰਨ ਦੇ ਮੌਕੇ ਲਈ ਸ਼ੁਕਰਗੁਜ਼ਾਰ ਹਾਂ ਕਿ ਕਿਵੇਂ Snap ਇਸ ਮਾਹੌਲ ਵਿੱਚ ਸਾਡੀਆਂ ਜ਼ਿੰਮੇਵਾਰੀਆਂ ਨੂੰ ਪੂਰਾ ਕਰ ਰਿਹਾ ਹੈ ਅਤੇ ਇਹ ਕੋਸ਼ਿਸ਼ਾਂ ਸਾਡੀ ਕੰਪਨੀ ਦੇ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਚੱਲ ਰਹੀਆਂ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਨਾਲ਼ ਕਿਵੇਂ ਢੁਕਦੀਆਂ ਹਨ।

Snapchat ਦੇ ਨਜ਼ਰੀਏ ਦਾ ਸੰਖੇਪ ਵਰਣਨ

ਚੋਣਾਂ ਨਾਲ ਜੁੜੇ ਪਲੇਟਫਾਰਮ ਦੀ ਅਖੰਡਤਾ ਪ੍ਰਤੀ ਸਾਡਾ ਨਜ਼ਰੀਆ ਕਈ ਪੱਧਰਾਂ ਵਿੱਚ ਵੰਡਿਆ ਹੋਇਆ ਹੈ। ਉੱਚ ਪੱਧਰ 'ਤੇ ਮੁੱਖ ਤੱਤਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ:

  • ਸੋਚੀਆਂ-ਸਮਝੀਆਂ ਉਤਪਾਦ ਸੁਰੱਖਿਆਵਾਂ;

  • ਸਾਫ਼ ਅਤੇ ਵਿਚਾਰਸ਼ੀਲ ਨੀਤੀਆਂ; 

  • ਰਾਜਨੀਤਕ ਇਸ਼ਤਿਹਾਰਾਂ ਲਈ ਯਤਨਸ਼ੀਲ ਨਜ਼ਰੀਆ;

  • ਸਹਿਯੋਗੀ, ਤਾਲਮੇਲ ਕੀਤੇ ਕਾਰਜ; ਅਤੇ

  • Snapchatters ਨੂੰ ਸਮਰੱਥਾ ਦੇਣ ਵਾਲੇ ਔਜ਼ਾਰਾਂ ਅਤੇ ਸਰੋਤਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਨਾ।


ਇਕੱਠੇ, ਇਹ ਥੰਮ੍ਹ ਚੋਣ ਨਾਲ ਸਬੰਧਤ ਜੋਖਮਾਂ ਦੀ ਵਿਆਪਕ ਲੜੀ ਨੂੰ ਘਟਾਉਣ ਲਈ ਸਾਡੇ ਨਜ਼ਰੀਏ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦੇ ਹਨ, ਇਹ ਯਕੀਨੀ ਬਣਾਉਂਦੇ ਹੋਏ ਕਿ ਉਨ੍ਹਾਂ Snapchatters ਕੋਲ ਅਜਿਹੇ ਔਜ਼ਾਰਾਂ ਅਤੇ ਜਾਣਕਾਰੀ ਤੱਕ ਪਹੁੰਚ ਹੈ ਜਿਨ੍ਹਾਂ ਨਾਲ ਪੂਰੀ ਦੁਨੀਆ ਵਿੱਚ ਲੋਕਤੰਤਰੀ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਿੱਚ ਭਾਗੀਦਾਰੀ ਲਈ ਸਹਾਇਤਾ ਮਿਲਦੀ ਹੈ। 

1. ਅੰਤਰਰਾਸ਼ਟਰੀ ਉਤਪਾਦ ਸੁਰੱਖਿਆਵਾਂ

ਸ਼ੁਰੂ ਤੋਂ ਹੀ Snapchat ਨੂੰ ਰਿਵਾਇਤੀ ਸੋਸ਼ਲ ਮੀਡੀਆ ਤੋਂ ਵੱਖਰਾ ਡਿਜ਼ਾਈਨ ਕੀਤਾ ਗਿਆ ਸੀ। Snapchat ਅੰਤਹੀਣ, ਅਣ-ਪੜਤਾਲੀਆ ਸਮੱਗਰੀ ਦੀ ਫੀਡ ਲਈ ਨਹੀਂ ਖੁੱਲ੍ਹਦੀ ਅਤੇ ਇਹ ਲੋਕਾਂ ਨੂੰ ਲਾਈਵ ਸਟ੍ਰੀਮ ਕਰਨ ਨਹੀਂ ਦਿੰਦੀ ਹੈ। 

ਅਸੀਂ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਜਾਣਿਆ ਹੈ ਕਿ ਹਾਨੀਕਾਰਕ ਡਿਜੀਟਲ ਗਲਤ ਜਾਣਕਾਰੀ ਨਾਲ ਸਭ ਤੋਂ ਵੱਡਾ ਖਤਰਾ ਉਸ ਗਤੀ ਅਤੇ ਪੈਮਾਨੇ ਤੋਂ ਪੈਦਾ ਹੁੰਦਾ ਹੈ ਜਿਸ ਹਿਸਾਬ ਨਾਲ ਕੁਝ ਡਿਜੀਟਲ ਪਲੇਟਫਾਰਮ ਇਸ ਨੂੰ ਫੈਲਣ ਦਿੰਦੇ ਹਨ। ਸਾਡੀਆਂ ਪਲੇਟਫਾਰਮ ਨੀਤੀਆਂ ਅਤੇ ਢਾਂਚਾ ਦਰਸ਼ਕਾਂ ਦੀ ਵੱਡੀ ਗਿਣਤੀ ਤੱਕ ਬਿਨਾਂ ਜਾਂਚ ਕੀਤੇ ਪਹੁੰਚ ਲਈ ਅਣ-ਪੜਤਾਲੀਆ ਜਾਂ ਅਣ-ਸੰਚਾਲਿਤ ਸਮੱਗਰੀ ਦੇ ਮੌਕਿਆਂ ਨੂੰ ਸੀਮਤ ਕਰਦੇ ਹਨ। ਇਸ ਦੀ ਬਜਾਏ, ਅਸੀਂ ਸਮੱਗਰੀ ਨੂੰ ਦਰਸ਼ਕਾਂ ਦੀ ਵੱਡੀ ਗਿਣਤੀ ਤੱਕ ਪਹੁੰਚਣ ਦੇਣ ਤੋਂ ਪਹਿਲਾਂ ਇਸ ਨੂੰ ਪੂਰਵ-ਸੰਚਾਲਿਤ ਕਰਦੇ ਹਾਂ ਅਤੇ ਖ਼ਬਰਾਂ ਅਤੇ ਰਾਜਨੀਤਕ ਜਾਣਕਾਰੀ ਦੀ ਵੰਡ ਨੂੰ ਮੋਟੇ ਤੌਰ 'ਤੇ ਸੀਮਤ ਕਰਦੇ ਹਾਂ ਜਦੋਂ ਤੱਕ ਕਿ ਇਹ ਭਰੋਸੇਮੰਦ ਪ੍ਰਕਾਸ਼ਕਾਂ ਅਤੇ ਰਚਨਾਕਾਰਾਂ ਤੋਂ ਨਹੀਂ ਆਉਂਦੀ (ਉਦਾਹਰਨ ਲਈ, ਅਮਰੀਕਾ ਵਿੱਚ The Wall Street Journal ਅਤੇ The Washington Post ਅਤੇ ਫਰਾਂਸ ਵਿੱਚ Le Monde ਅਤੇ ਭਾਰਤ ਵਿੱਚ Times Now)। 

ਪਿਛਲੇ ਸਾਲ ਦੌਰਾਨ, Snapchat 'ਤੇ ਜਨਰੇਟਿਵ AI ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੀ ਸ਼ੁਰੂਆਤ ਨੂੰ ਉਸੇ ਪੱਧਰ ਦੇ ਇਰਾਦੇ ਨਾਲ ਪੂਰਾ ਕੀਤਾ ਗਿਆ ਹੈ। ਅਸੀਂ ਆਪਣੇ AI ਉਤਪਾਦਾਂ ਦੀ ਅਜਿਹੀ ਸਮੱਗਰੀ ਜਾਂ ਚਿੱਤਰ ਤਿਆਰ ਕਰਨ ਦੀਆਂ ਯੋਗਤਾਵਾਂ ਨੂੰ ਸੀਮਤ ਕਰਦੇ ਹਾਂ ਜੋ ਨਾਗਰਿਕ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਨ ਜਾਂ ਵੋਟਰਾਂ ਨੂੰ ਧੋਖਾ ਦੇਣ ਲਈ ਵਰਤੇ ਜਾ ਸਕਦੇ ਹਨ। ਸਾਡਾ ਚੈਟਬੋਟ, My AI, ਉਦਾਹਰਨ ਵਜੋਂ, ਰਾਜਨੀਤਿਕ ਘਟਨਾਵਾਂ ਜਾਂ ਸਮਾਜਿਕ ਮੁੱਦਿਆਂ ਦੇ ਆਲੇ-ਦੁਆਲੇ ਸੰਦਰਭ ਬਾਰੇ ਜਾਣਕਾਰੀ ਦੇ ਸਕਦਾ ਹੈ; ਇਹ ਰਾਜਨੀਤਕ ਉਮੀਦਵਾਰਾਂ ਬਾਰੇ ਰਾਏ ਪੇਸ਼ ਨਾ ਕਰਨ ਜਾਂ Snapchatters ਨੂੰ ਕਿਸੇ ਖਾਸ ਨਤੀਜੇ ਲਈ ਵੋਟ ਪਾਉਣ ਲਈ ਉਤਸ਼ਾਹਤ ਨਾ ਕਰਨ ਲਈ ਪ੍ਰੋਗਰਾਮ ਕੀਤਾ ਗਿਆ ਹੈ। ਅਤੇ ਸਾਡੀਆਂ ਲਿਖਤ-ਤੋਂ-ਚਿੱਤਰ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਵਿੱਚ, ਅਸੀਂ ਖਤਰਨਾਕ ਸਮੱਗਰੀ ਸ਼੍ਰੇਣੀਆਂ ਦੀ ਸਿਰਜਣਾ 'ਤੇ ਸਿਸਟਮ-ਪੱਧਰ ਦੀਆਂ ਪਾਬੰਦੀਆਂ ਨੂੰ ਅਪਣਾਇਆ ਹੈ, ਜਿਸ ਵਿੱਚ ਜਾਣੀਆਂ ਜਾਂਦੀਆਂ ਰਾਜਨੀਤਕ ਹਸਤੀਆਂ ਦੀ ਸਮਾਨਤਾ ਵੀ ਸ਼ਾਮਲ ਹੈ। 

ਹੁਣ ਇੱਕ ਦਹਾਕੇ ਤੋਂ ਵੱਧ ਦੇ ਸਮੇਂ ਤੋਂ ਅਤੇ ਕਈ ਚੋਣ ਚੱਕਰਾਂ ਵਿੱਚ, ਸਾਡੇ ਉਤਪਾਦ ਢਾਂਚੇ ਨੇ ਨਾਗਰਿਕ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨੂੰ ਵਿਗਾੜਨ ਜਾਂ ਸੂਚਨਾਵਾਂ ਦੇ ਮਾਹੌਲ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਨ ਲਈ ਕੰਮ ਕਰਨ ਵਾਲੇ ਲੋਕਾਂ ਲਈ ਅਜਿਹਾ ਕਰਨਾ ਬਹੁਤ ਹੀ ਮੁਸ਼ਕਲ ਬਣਾਉਣ ਵਿੱਚ ਕੇਂਦਰੀ ਭੂਮਿਕਾ ਨਿਭਾਈ ਹੈ। ਅਤੇ ਸਬੂਤਾਂ ਤੋਂ ਪਤਾ ਲੱਗਦਾ ਹੈ ਕਿ ਇਹ ਚੰਗੀ ਤਰ੍ਹਾਂ ਕੰਮ ਕਰਦਾ ਹੈ। ਸਾਡੇ ਸਭ ਤੋਂ ਤਾਜ਼ਾ ਅੰਕੜੇ ਦਰਸਾਉਂਦੇ ਹਨ ਕਿ 1 ਜਨਵਰੀ ਤੋਂ 30 ਜੂਨ 2023 ਤੱਕ, ਨੁਕਸਾਨਦੇਹ ਗਲਤ ਜਾਣਕਾਰੀ (ਚੋਣ ਅਖੰਡਤਾ ਲਈ ਜੋਖਮਾਂ ਸਮੇਤ) ਲਈ ਵਿਸ਼ਵ ਪੱਧਰ 'ਤੇ ਕਾਰਵਾਈ ਕਰਨ ਦੀ ਕੁੱਲ ਗਿਣਤੀ ਕੁੱਲ ਸਮੱਗਰੀ ਦਾ 0.0038٪ ਹੈ, ਜੋ ਸਾਡੇ ਪਲੇਟਫਾਰਮ 'ਤੇ ਨੁਕਸਾਨ ਦੀ ਸਭ ਤੋਂ ਘੱਟ ਸੰਭਾਵਨਾ ਸ਼੍ਰੇਣੀਆਂ ਦੇ ਅੰਦਰ ਆਉਂਦੀ ਹੈ।

ਅਸੀਂ 2024 ਵਿੱਚ ਆਪਣੇ ਪਲੇਟਫਾਰਮ ਅਖੰਡਤਾ ਦੇ ਯਤਨਾਂ ਲਈ ਉਤਪਾਦ ਤੋਂ ਅਗਾਂਹ ਦਾ ਨਜ਼ਰੀਆ ਰੱਖਾਂਗੇ, ਜਿਸ ਵਿੱਚ 2024 ਦੀਆਂ ਚੋਣਾਂ ਵਿੱਚ AI ਦੀ ਧੋਖਾਧੜੀ ਵਾਲੀ ਵਰਤੋਂ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤਕਨੀਕੀ ਸਮਝੌਤੇ 'ਤੇ ਹਸਤਾਖਰ ਕਰਨ ਵਾਲਿਆਂ ਵਜੋਂ ਸਾਡੀਆਂ ਵਚਨਬੱਧਤਾਵਾਂ ਵੀ ਸ਼ਾਮਲ ਹਨ।

2. ਸਾਫ਼ ਅਤੇ ਵਿਚਾਰਸ਼ੀਲ ਨੀਤੀਆਂ

ਸਾਡੇ ਉਤਪਾਦ ਸੁਰੱਖਿਆ ਉਪਰਾਲਿਆਂ ਨੂੰ ਪੂਰਾ ਕਰਨ ਲਈ, ਅਸੀਂ ਕਈ ਨੀਤੀਆਂ ਲਾਗੂ ਕੀਤੀਆਂ ਹਨ ਜੋ ਚੋਣਾਂ ਵਰਗੇ ਵੱਡੇ ਮੌਕਿਆਂ ਦੇ ਸੰਦਰਭ ਵਿੱਚ ਸੁਰੱਖਿਆ ਅਤੇ ਅਖੰਡਤਾ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਲਈ ਕੰਮ ਕਰਦੀਆਂ ਹਨ। ਸਾਡੀਆਂ ਭਾਈਚਾਰਕ ਸੇਧਾਂ ਸਾਫ਼ ਤੌਰ 'ਤੇ ਇਨ੍ਹਾਂ ਚੀਜ਼ਾਂ 'ਤੇ ਪਾਬੰਦੀ ਲਗਾਉਂਦੀਆਂ ਹਨ, ਉਦਾਹਰਨ ਲਈ, ਨੁਕਸਾਨਦੇਹ ਝੂਠੀ ਜਾਣਕਾਰੀ, ਨਫ਼ਰਤ ਭਰਿਆ ਭਾਸ਼ਣ ਅਤੇ ਧਮਕੀਆਂ ਜਾਂ ਹਿੰਸਾ ਵਾਲੀਆਂ ਕਾਲਾਂ। 

ਚੋਣਾਂ ਦੇ ਸੰਬੰਧ ਵਿੱਚ ਨੁਕਸਾਨਦੇਹ ਸਮੱਗਰੀ ਦੇ ਵਿਸ਼ੇ 'ਤੇ ਸਾਡੀਆਂ ਬਾਹਰੀ ਨੀਤੀਆਂ ਜਾਣਕਾਰੀ ਅਖੰਡਤਾ ਦੇ ਖੇਤਰ ਵਿੱਚ ਮੋਹਰੀ ਖੋਜਕਰਤਾਵਾਂ ਵੱਲੋਂ ਮਜ਼ਬੂਤ ਬਣਾਈਆਂ ਜਾਂਦੀਆਂ ਅਤੇ ਉਨ੍ਹਾਂ ਤੋਂ ਸੇਧ ਲਈ ਜਾਂਦੀ ਹੈ। ਉਹ ਨੁਕਸਾਨਦੇਹ ਸਮੱਗਰੀ ਦੀਆਂ ਉਨ੍ਹਾਂ ਵਿਸ਼ੇਸ਼ ਸ਼੍ਰੇਣੀਆਂ ਬਾਰੇ ਦਸਦੀਆਂ ਹਨ ਜਿਨ੍ਹਾਂ 'ਤੇ ਪਾਬੰਦੀ ਹੈ, ਇਨ੍ਹਾਂ ਸਮੇਤ:

  • ਪ੍ਰਕਿਰਿਆਤਮਕ ਦਖਲਅੰਦਾਜ਼ੀ: ਅਸਲ ਚੋਣ ਜਾਂ ਨਾਗਰਿਕ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨਾਲ ਸੰਬੰਧਿਤ ਗਲਤ ਸੂਚਨਾ, ਜਿਵੇਂ ਕਿ ਜ਼ਰੂਰੀ ਮਿਤੀਆਂ ਅਤੇ ਸਮੇਂ ਨੂੰ ਗਲਤ ਢੰਗ ਨਾਲ ਪੇਸ਼ ਕਰਨਾ ਜਾਂ ਭਾਗੀਦਾਰੀ ਲਈ ਯੋਗਤਾ ਲੋੜਾਂ ਨੂੰ ਗਲਤ ਢੰਗ ਨਾਲ ਪੇਸ਼ ਕਰਨਾ।

  • ਭਾਗੀਦਾਰੀ ਸੰਬੰਧਿਤ ਦਖਲਅੰਦਾਜ਼ੀ: ਅਜਿਹੀ ਸਮੱਗਰੀ ਜਿਸ ਵਿੱਚ ਨਿੱਜੀ ਸੁਰੱਖਿਆ ਲਈ ਖਤਰੇ ਸ਼ਾਮਲ ਹਨ ਜਾਂ ਜੋ ਕਿਸੇ ਚੋਣ ਜਾਂ ਨਾਗਰਿਕ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਭਾਗੀਦਾਰੀ ਨੂੰ ਰੋਕਣ ਲਈ ਅਫਵਾਹਾਂ ਫੈਲਾਉਂਦੀ ਹੈ।

  • ਧੋਖਾਧੜੀ ਜਾਂ ਗੈਰ-ਕਾਨੂੰਨੀ ਭਾਗੀਦਾਰੀ: ਅਜਿਹੀ ਸਮੱਗਰੀ ਜੋ ਲੋਕਾਂ ਨੂੰ ਨਾਗਰਿਕ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਹਿੱਸਾ ਲੈਣ ਜਾਂ ਗੈਰ-ਕਨੂੰਨੀ ਢੰਗ ਨਾਲ ਵੋਟ ਪਾਉਣ ਜਾਂ ਖਤਮ ਕਰਨ ਲਈ ਆਪਣੇ-ਆਪ ਨੂੰ ਗਲਤ ਢੰਗ ਨਾਲ ਪੇਸ਼ ਕਰਨ ਲਈ ਉਤਸ਼ਾਹਿਤ ਕਰਦੀ ਹੈ; ਅਤੇ

  • ਨਾਗਰਿਕ ਪ੍ਰਕਿਰਿਆਵਾਂ ਦਾ ਗੈਰ-ਕਨੂੰਨੀਕਰਨ: ਉਦਾਹਰਨ ਲਈ, ਚੋਣ ਨਤੀਜਿਆਂ ਬਾਰੇ ਝੂਠੇ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਦਾਅਵਿਆਂ ਦੇ ਆਧਾਰ 'ਤੇ ਲੋਕਤੰਤਰੀ ਸੰਸਥਾਵਾਂ ਨੂੰ ਗੈਰ-ਕਨੂੰਨੀ ਦਸਣ ਵਾਲੀ ਸਮੱਗਰੀ।

ਖ਼ਬਰਾਂ 'ਤੇ ਵਾਪਸ ਜਾਓ
1 ਇਹ ਧਿਆਨ ਦੇਣ ਯੋਗ ਹੈ ਕਿ Snapchat 'ਤੇ AI-ਸੰਚਾਲਿਤ ਜਾਂ AI ਨਾਲ ਵਧਾਈ ਸਮੱਗਰੀ ਨੂੰ ਸਾਂਝਾ ਕਰਨਾ ਸਾਡੀਆਂ ਨੀਤੀਆਂ ਦੇ ਵਿਰੁੱਧ ਨਹੀਂ ਹੈ ਅਤੇ ਪੱਕੇ ਤੌਰ 'ਤੇ ਕੁਝ ਅਜਿਹਾ ਨਹੀਂ ਹੈ ਜਿਸ ਨੂੰ ਅਸੀਂ ਕੁਦਰਤੀ ਤੌਰ 'ਤੇ ਨੁਕਸਾਨਦੇਹ ਸਮਝਦੇ ਹਾਂ। ਹੁਣ ਕਈ ਸਾਲਾਂ ਤੋਂ Snapchatters ਨੂੰ ਮਜ਼ੇਦਾਰ ਲੈਂਜ਼ਾਂ ਅਤੇ ਹੋਰ AR ਤਜ਼ਰਬਿਆਂ ਨਾਲ ਚਿੱਤਰਾਂ ਵਿੱਚ ਫ਼ੇਰਬਦਲ ਕਰਨ ਵਿੱਚ ਖੁਸ਼ੀ ਮਿਲੀ ਹੈ ਅਤੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਤਰੀਕਿਆਂ ਬਾਰੇ ਉਤਸ਼ਾਹਿਤ ਹਾਂ ਜਿਨ੍ਹਾਂ ਨਾਲ ਸਾਡਾ ਭਾਈਚਾਰਾ ਆਪਣੇ ਜਜ਼ਬਾਤਾਂ ਨੂੰ ਰਚਨਾਤਮਕ ਤਰੀਕੇ ਨਾਲ ਜ਼ਾਹਰ ਕਰਨ ਲਈ AI ਵਰਤ ਸਕਦਾ ਹੈ। ਜੇਕਰ, ਹਾਲਾਂਕਿ, ਸਮੱਗਰੀ ਧੋਖਾਧੜੀ ਵਾਲੀ ਹੋਵੇ (ਜਾਂ ਹੋਰ ਨੁਕਸਾਨਦੇਹ ਹੋਵੇ), ਤਾਂ ਅਸੀਂ ਬੇਸ਼ਕ ਇਸ ਨੂੰ ਹਟਾ ਦੇਵਾਂਗੇ, ਚਾਹੇ AI ਤਕਨੀਕ ਨੇ ਇਸ ਨੂੰ ਬਣਾਉਣ ਵਿੱਚ ਕਿਸੇ ਵੀ ਹੱਦ ਤੱਕ ਭੂਮਿਕਾ ਨਿਭਾਈ ਹੋਵੇ।