GenAI ಲೈಂಗಿಕ ಕಂಟೆಂಟ್ ಜೊತೆಗೆ ಜನರು ಹೇಗೆ ಸಂವಹನ ನಡೆಸುತ್ತಿದ್ದಾರೆ ಎಂಬುದರ ಕುರಿತು ಹೊಸ ಅಧ್ಯಯನ
ನವೆಂಬರ್ 19, 2024
ಇತ್ತೀಚಿನ ವರ್ಷಗಳಲ್ಲಿ AI ಉಪಕರಣಗಳ ತ್ವರಿತ ಏರಿಕೆಯು ಸೃಜನಶೀಲತೆ, ಕಲಿಕೆ ಮತ್ತು ಸಂಪರ್ಕಕ್ಕಾಗಿ ಹೊಸ ಅವಕಾಶಗಳನ್ನು ಸೃಷ್ಟಿಸಿದೆ ಮತ್ತು ಸೃಷ್ಟಿಸಲು ಮುಂದುವರಿಯುತ್ತದೆ. ಆದಾಗ್ಯೂ, ಈ ತಂತ್ರಜ್ಞಾನವು ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಆನ್ಲೈನ್ ಅಪಾಯಗಳಿಗೆ ಹೊಸ ಡೈನಾಮಿಕ್ಸ್ ಅನ್ನು ಪರಿಚಯಿಸಿದೆ. ಆನ್ಲೈನ್ನಲ್ಲಿ ಅಶ್ಲೀಲ AI ಚಿತ್ರಗಳು ಮತ್ತು ವೀಡಿಯೊಗಳಿಗೆ ಒಡ್ಡಿಕೊಳ್ಳುವ ಜನರ ಸಂಖ್ಯೆಯು ಬೆಳೆಯುತ್ತಿರುವಂತೆ, ಈ ಕೆಲವು ವಿಷಯದ ಕಾನೂನುಬಾಹಿರತೆಯ ಅರಿವು ಒಂದು ಸವಾಲಾಗಿ ಮುಂದುವರೆದಿದೆ ಎಂದು ಹೊಸ ಸಂಶೋಧನೆ ತೋರಿಸುತ್ತದೆ.
ಎಲ್ಲಾ ಪ್ಲಾಟ್ ಫಾರ್ಮ್ ಗಳು ಮತ್ತು ಸೇವೆಗಳಲ್ಲಿ ಹದಿಹರೆಯದವರು ಮತ್ತು ಯುವಕರ ವರ್ತನೆಗಳು ಮತ್ತು ನಡವಳಿಕೆಗಳ ಬಗ್ಗೆ ಉತ್ತಮ ತಿಳುವಳಿಕೆಯನ್ನು ಪಡೆಯಲು, Snap ಡಿಜಿಟಲ್ ಯೋಗಕ್ಷೇಮ ಸೂಚ್ಯಂಕ ಎಂದು ಕರೆಯಲ್ಪಡುವ ವಾರ್ಷಿಕ ಉದ್ಯಮ-ವ್ಯಾಪಿ ಸಂಶೋಧನೆಯನ್ನು ನಡೆಸುತ್ತದೆ ಮತ್ತು ಹಂಚಿಕೊಳ್ಳುತ್ತದೆ. (Snap ಸಂಶೋಧನೆಯನ್ನು ನಿಯೋಜಿಸಿದ್ದರೂ ಸಹ, ಇದು ಸಾಮಾನ್ಯವಾಗಿ ಡಿಜಿಟಲ್ ಸ್ಥಳಗಳಾದ್ಯಂತ ಜನರೇಷನ್ Z ನ ಅನುಭವಗಳನ್ನು ಒಳಗೊಂಡಿದೆ, Snapchat ಮೇಲೆ ಯಾವುದೇ ನಿರ್ದಿಷ್ಟ ಗಮನವಿಲ್ಲ.) ಫೆಬ್ರವರಿ 2025 ರಲ್ಲಿ ಅಂತರಾಷ್ಟ್ರೀಯ ಸುರಕ್ಷಿತ ಇಂಟರ್ನೆಟ್ ದಿನದ ಜೊತೆಗೆ ನಮ್ಮ ಮೂರು ವರ್ಷದ ಅಧ್ಯಯನದ ಪೂರ್ಣ ಫಲಿತಾಂಶಗಳನ್ನು ಬಿಡುಗಡೆ ಮಾಡಲು ನಾವು ಯೋಜಿಸುತ್ತಿರುವಾಗ, ಹದಿಹರೆಯದವರು, ಯುವ ವಯಸ್ಕರು ಮತ್ತು ಪೋಷಕರು ಸಹ AI- ಆಧಾರಿತ ಲೈಂಗಿಕ ವಿಷಯದೊಂದಿಗೆ ಹೇಗೆ ತೊಡಗಿಸಿಕೊಂಡಿದ್ದಾರೆ ಮತ್ತು ಪ್ರತಿಕ್ರಿಯಿಸುತ್ತಿದ್ದಾರೆ ಎಂಬುದರ ಕುರಿತು ನಾವು ಕೆಲವು ಪ್ರಮುಖ ಒಳನೋಟಗಳನ್ನು ಪೂರ್ವವೀಕ್ಷಿಸಲು ಬಯಸುತ್ತೇವೆ. ಈ ವಾರ ಮಕ್ಕಳ ಲೈಂಗಿಕ ಶೋಷಣೆ ಮತ್ತು ದುರುಪಯೋಗದ ಬಗ್ಗೆ ಜಾಗತಿಕ ಗಮನದ ಬೆಳಕಿನಲ್ಲಿ ಮತ್ತು AI-ರಚಿತವಾದ ಲೈಂಗಿಕ ವಿಷಯಕ್ಕೆ ಸಂಬಂಧಿಸಿದ ಹಾನಿಗಳನ್ನು ಪರಿಹರಿಸುವತ್ತ ಗಮನ ಹರಿಸಿದ ಎಂಪವರ್ನಿಂಗ್ ವಾಯ್ಸಸ್ DC ಶೃಂಗಸಭೆಯಲ್ಲಿ ನಮ್ಮ ಭಾಗವಹಿಸುವಿಕೆಯೊಂದಿಗೆ ನಾವು ಇಂದು ಹಾಗೆ ಮಾಡುತ್ತಿದ್ದೇವೆ.
ಉದಾಹರಣೆಗೆ, 6 ದೇಶಗಳಾದ್ಯಂತ 9,007 ಹದಿಹರೆಯದವರು, ಯುವ ವಯಸ್ಕರು ಮತ್ತು ಹದಿಹರೆಯದವರ ಪೋಷಕರನ್ನು ಸಮೀಕ್ಷೆ ಮಾಡಿದ ನಮ್ಮ ಅಧ್ಯಯನದಲ್ಲಿ 124% ರಷ್ಟು ಜನರು ಲೈಂಗಿಕ ಸ್ವಭಾವದ ಕೆಲವು ರೀತಿಯ AI- ರಚಿತ ಚಿತ್ರಗಳು ಅಥವಾ ವೀಡಿಯೊಗಳನ್ನು ನೋಡಿದ್ದೇವೆ ಎಂದು ಹೇಳಿದ್ದಾರೆ. ಈ ರೀತಿಯ ವಿಷಯವನ್ನು ನೋಡಿದ್ದೇವೆ ಎಂದು ಹೇಳಿಕೊಂಡವರಲ್ಲಿ, ಕೇವಲ 2% ಜನರು ಮಾತ್ರ ಚಿತ್ರಣವು 18 ವರ್ಷಕ್ಕಿಂತ ಕಡಿಮೆ ವಯಸ್ಸಿನವರದ್ದಾಗಿದೆ ಎಂದು ಹೇಳಿದ್ದಾರೆ.

ಪ್ರೋತ್ಸಾಹದಾಯಕವಾಗಿ, ಜನರು ಈ ರೀತಿಯ ವಿಷಯವನ್ನು ನೋಡಿದಾಗ, 10 ರಲ್ಲಿ ಒಂಬತ್ತು ಜನರು ವಿಷಯವನ್ನು ನಿರ್ಬಂಧಿಸುವುದು ಅಥವಾ ತೆಗೆದುಹಾಕುವುದು (54%) ಅಥವಾ ವಿಶ್ವಾಸಾರ್ಹ ಸ್ನೇಹಿತ ಅಥವಾ ಕುಟುಂಬದ ಸದಸ್ಯರೊಂದಿಗೆ (52%) ಮಾತನಾಡುವುದು ಸೇರಿದಂತೆ ಕೆಲವು ಕ್ರಮಗಳನ್ನು ತೆಗೆದುಕೊಂಡರು. ಆದಾಗ್ಯೂ, ಕೇವಲ 42% ಅವರು ವಿಷಯವನ್ನು ನೋಡಿದ ವೇದಿಕೆ ಅಥವಾ ಸೇವೆಗೆ ಅಥವಾ ಹಾಟ್ಲೈನ್ / ಸಹಾಯವಾಣಿಗೆ ವರದಿ ಮಾಡುವುದಾಗಿ ಹೇಳಿದ್ದಾರೆ. ಈ ಒಳನೋಟವು ಸಾಮಾನ್ಯವಾಗಿ ಡಿಜಿಟಲ್ ಸುರಕ್ಷತೆ-ಸಂಬಂಧಿತ ಸಮಸ್ಯೆಗಳ ಕಡಿಮೆ ವರದಿ ಮಾಡುವ ದರಗಳ ದೊಡ್ಡ ಪ್ರವೃತ್ತಿಯನ್ನು ಅನುಸರಿಸುತ್ತದೆ. ಹಿಂದಿನ ಪೋಸ್ಟ್ ಒಂದರಲ್ಲಿ , ವರದಿ ಮಾಡುವಿಕೆಯ ಋಣಾತ್ಮಕ ಗ್ರಹಿಕೆಗಳನ್ನು ಪ್ರತಿರೋಧಿಸುವ ಪ್ರಾಮುಖ್ಯತೆಯ ಬಗ್ಗೆ ನಾವು ಗಮನಸೆಳೆದಿದ್ದೇವೆ, ಇದರಿಂದಾಗಿ ಯುವಜನರು ಕೆಲವು ಸಮಸ್ಯಾತ್ಮಕ ವಿಷಯಗಳಿಗೆ ಮತ್ತು ನಡವಳಿಕೆಗೆ ಒಡ್ಡಿಕೊಳ್ಳುವುದನ್ನು ಸಾಮಾನ್ಯಗೊಳಿಸುವುದಿಲ್ಲ ಅಥವಾ ವರದಿ ಮಾಡುವಿಕೆಯನ್ನು ಚಾಡಿ ಹೇಳುವಿಕೆಯೊಂದಿಗೆ ಸಮೀಕರಿಸುವುದಿಲ್ಲ.
ಇನ್ನೂ ಹೆಚ್ಚು ಆತಂಕಕಾರಿಯಾಗಿ, 40% ಕ್ಕಿಂತ ಹೆಚ್ಚು ಪ್ರತಿಕ್ರಿಯೆದಾರರು ಅಪ್ರಾಪ್ತ ವಯಸ್ಕರ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯದ ಚಿತ್ರಗಳನ್ನು ವರದಿ ಮಾಡಲು ಪ್ಲಾಟ್ಫಾರ್ಮ್ಗಳು/ಸೇವೆಗಳ ಕಾನೂನು ಬಾಧ್ಯತೆಯ ಬಗ್ಗೆ ಅಸ್ಪಷ್ಟವಾಗಿದ್ದಾರೆ, ಅಂತಹ ಚಿತ್ರಗಳನ್ನು ಜೋಕ್ಗಳು ಅಥವಾ ಮೀಮ್ಗಳಾಗಿ ಉದ್ದೇಶಿಸಲಾಗಿದ್ದರೂ ಸಹ. ಮತ್ತು, ಹೆಚ್ಚಿನ ಜನರು (70%+) ಯಾರೊಬ್ಬರ ಬಗ್ಗೆ ನಕಲಿ ಲೈಂಗಿಕ ವಿಷಯವನ್ನು ರಚಿಸಲು ಅಥವಾ ಅಪ್ರಾಪ್ತರ ಲೈಂಗಿಕ ಚಿತ್ರಗಳನ್ನು ಉಳಿಸಿಕೊಳ್ಳಲು, ವೀಕ್ಷಿಸಲು ಅಥವಾ ಹಂಚಿಕೊಳ್ಳಲು AI ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸುವುದು ಕಾನೂನುಬಾಹಿರ ಎಂದು ಗುರುತಿಸಿದರೂ, ಈ ರೀತಿಯ ವಿಷಯಕ್ಕೆ ಸಂಬಂಧಿಸಿದ ಕಾನೂನು ಅವಶ್ಯಕತೆಗಳ ಬಗ್ಗೆ ಸಾರ್ವಜನಿಕರಿಗೆ ತಿಳಿದಿದೆ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು ಇನ್ನೂ ಹೆಚ್ಚಿನ ಕೆಲಸವನ್ನು ಮಾಡಬೇಕಾಗಿದೆ ಎಂದು ಈ ಸಂಶೋಧನೆಗಳು ಸೂಚಿಸುತ್ತವೆ.
U.S.ನಲ್ಲಿ, ಉದಾಹರಣೆಗೆ, ಸುಮಾರು 40% ಪ್ರತಿಕ್ರಿಯೆದಾರರು ವ್ಯಕ್ತಿಯ ನಕಲಿ ಲೈಂಗಿಕ ಚಿತ್ರಗಳನ್ನು ರಚಿಸಲು AI ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸುವುದು ಕಾನೂನುಬದ್ಧವಾಗಿದೆ ಎಂದು ನಂಬಿದ್ದಾರೆ. ಮತ್ತು, ಉಪಾಖ್ಯಾನವಾಗಿ, ಉದ್ಯಮದ ಸಹೋದ್ಯೋಗಿಗಳಿಂದ ಕಳವಳಕಾರಿ ಪ್ರವೃತ್ತಿಯ ಬಗ್ಗೆ ನಾವು ಕೇಳಿದ್ದೇವೆ: ಈ ರೀತಿಯ ವಿಷಯದ ಪ್ರಸರಣ ಹೆಚ್ಚಾದಂತೆ, ನಿರ್ದಿಷ್ಟವಾಗಿ ಕೆಲವು ಹದಿಹರೆಯದ ಹುಡುಗಿಯರು ತಮ್ಮ ಗೆಳೆಯರು ಅನುಚಿತವಾಗಿ ರಚಿಸುವ ಮತ್ತು ಹಂಚಿಕೊಳ್ಳುವ ಎಐ-ಮ್ಯಾನಿಪುಲೇಟೆಡ್ ಲೈಂಗಿಕ ಚಿತ್ರಣದಲ್ಲಿ ಕಾಣಿಸಿಕೊಳ್ಳದಿದ್ದರೆ ಅವರು "ಕೈಬಿಡಲ್ಪಟ್ಟಿದ್ದಾರೆ" ಎಂದು ಭಾವಿಸುತ್ತಾರೆ. ಈ ಆತಂಕಕಾರಿ ಅಂಶವು ಈ ನಿರ್ದಿಷ್ಟ ಆನ್ಲೈನ್ ಅಪಾಯದ ಬಗ್ಗೆ ಶಿಕ್ಷಣ ಮತ್ತು ಜಾಗೃತಿಯನ್ನು ಬೆಳೆಸುವ ಅಗತ್ಯವನ್ನು ಮತ್ತಷ್ಟು ಒತ್ತಿಹೇಳುತ್ತದೆ, ವಿಶ್ವಾಸಾರ್ಹ ವಯಸ್ಕರು ಮತ್ತು ತಿಳುವಳಿಕೆಯುಳ್ಳ ಗೆಳೆಯರು ಈ ರೀತಿಯ ನಡವಳಿಕೆಯನ್ನು ನಿರುತ್ಸಾಹಗೊಳಿಸುವಲ್ಲಿ ಸಕ್ರಿಯ ಪಾತ್ರ ವಹಿಸಬೇಕು.
Snap ನ ನಿರಂತರ ಬದ್ಧತೆ
Snap ನಲ್ಲಿ, Snapchat ಮತ್ತು ಟೆಕ್ ಪರಿಸರ ವ್ಯವಸ್ಥೆಯಾದ್ಯಂತ ಸುರಕ್ಷಿತ, ಆರೋಗ್ಯಕರ ಮತ್ತು ಹೆಚ್ಚು ಸಕಾರಾತ್ಮಕ ಅನುಭವಗಳನ್ನು ಬೆಳೆಸಲು ಸಹಾಯ ಮಾಡಲು ನಾವು ನಿರಂತರವಾಗಿ ಸಂಪನ್ಮೂಲಗಳು, ಪರಿಕರಗಳು ಮತ್ತು ತಂತ್ರಜ್ಞಾನದಲ್ಲಿ ಹೂಡಿಕೆ ಮಾಡುತ್ತಿದ್ದೇವೆ.
ಕೆಲವು ಸಂದರ್ಭಗಳಲ್ಲಿ, ಸಂಭಾವ್ಯ ಕಾನೂನುಬಾಹಿರ ಚಟುವಟಿಕೆಯನ್ನು ಗುರುತಿಸಲು ನಾವು ವರ್ತನೆಯ "ಸಿಗ್ನಲ್ಗಳನ್ನು" ಬಳಸುತ್ತೇವೆ ಇದರಿಂದ ನಾವು ಕೆಟ್ಟ ಏಜೆಂಟರನ್ನು ಪೂರ್ವಭಾವಿಯಾಗಿ ತೆಗೆದುಹಾಕಬಹುದು ಮತ್ತು ಅಧಿಕಾರಿಗಳಿಗೆ ವರದಿ ಮಾಡಬಹುದು. ಇದಲ್ಲದೆ, ಸಂವಾದಾತ್ಮಕ AI ಚಾಟ್ಬಾಟ್ ಅನ್ನು ಒಳಗೊಂಡಿರುವ ಸೇವೆಯಾಗಿ, Snapchat ನಲ್ಲಿ ಅಂತಹ ವಸ್ತುಗಳ ಸಂಭಾವ್ಯ ಉತ್ಪಾದನೆಯನ್ನು ತಡೆಗಟ್ಟುವಲ್ಲಿ ನಾವು ಹೆಚ್ಚಿನ ಜಾಗರೂಕರಾಗಿರಲು ಪ್ರಯತ್ನಿಸುತ್ತೇವೆ, ಹಾಗೆಯೇ ಇತರ ಪ್ಲಾಟ್ಫಾರ್ಮ್ಗಳಲ್ಲಿ ರಚಿಸಲಾದ ವಸ್ತುಗಳ ಹಂಚಿಕೆ ಮತ್ತು ವಿತರಣೆಯ ವಿರುದ್ಧ ರಕ್ಷಿಸುತ್ತೇವೆ. ಅಪ್ರಾಪ್ತ ವಯಸ್ಕರ ಶಂಕಿತ AI- ರಚಿತ ಲೈಂಗಿಕ ಚಿತ್ರಗಳನ್ನು ನಾವು "ನೈಜ" ಮಕ್ಕಳ ಲೈಂಗಿಕ ಶೋಷಣೆ ಮತ್ತು ದುರುಪಯೋಗ ಚಿತ್ರಗಳಂತೆಯೇ (CSEAI) ಪರಿಗಣಿಸುತ್ತೇವೆ ಮತ್ತು ಒಮ್ಮೆ ಪತ್ತೆ ಹಚ್ಚಿದರೆ, ನಾವು ಸಂಬಂಧಿತ ವಿಷಯವನ್ನು ಅಳಿಸುತ್ತೇವೆ ಮತ್ತು ಉಲ್ಲಂಘಿಸಿದ ಖಾತೆಯನ್ನು ಅಮಾನತುಗೊಳಿಸುತ್ತೇವೆ. ಮತ್ತು ಕಾಣೆಯಾದ ಮತ್ತು ಶೋಷಿತ ಮಕ್ಕಳ ರಾಷ್ಟ್ರೀಯ ಕೇಂದ್ರಕ್ಕೆ (NCMEC) ವರದಿ ಮಾಡುತ್ತೇವೆ. ಇದು PhotoDNA (ತಿಳಿದಿರುವ ಕಾನೂನುಬಾಹಿರ ಚಿತ್ರಗಳ ನಕಲುಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು) ಮತ್ತು Google ನ CSAI ಹೊಂದಾಣಿಕೆ (ತಿಳಿದಿರುವ ಕಾನೂನುಬಾಹಿರ ವೀಡಿಯೊಗಳ ನಕಲುಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು) ಸೇರಿದಂತೆ CSEAI ಹರಡುವುದನ್ನು ತಡೆಯಲು ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿಕೊಳ್ಳುವುದು ಮತ್ತು ನಿಯೋಜಿಸುವುದರ ಜೊತೆಗೆ. ನಾವು ಇತ್ತೀಚೆಗೆ Google ನ ವಿಷಯ ಸುರಕ್ಷತೆ API ಅನ್ನು ಬಳಸಲು ಪ್ರಾರಂಭಿಸಿದ್ದೇವೆ (ಸಾರ್ವಜನಿಕ ಕಂಟೆಂಟ್ ಮೇಲೆ ನವೀನ, "ಹಿಂದೆಂದೂ-ಹ್ಯಾಶ್ ಮಾಡದ" ಚಿತ್ರಣವನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಸಹಾಯ ಮಾಡಲು). GenAI ಒಳಗೊಂಡಿರುವ ಮಕ್ಕಳ ಲೈಂಗಿಕ ದೌರ್ಜನ್ಯದ ಸಾಮಗ್ರಿಗಳಿಗೆ ಸಂಬಂಧಿಸಿದಂತೆ ಕಳೆದ ವರ್ಷ ಅವರು ಸ್ವೀಕರಿಸಿದ 4,700 ವರದಿಗಳ ಅನನ್ಯ ಡಿಜಿಟಲ್ ಸಹಿಗಳನ್ನು (ಅಥವಾ "ಹ್ಯಾಶ್ಗಳು") ಹೇಗೆ ಬಳಸಿಕೊಳ್ಳುವುದು ಎಂಬುದರ ಕುರಿತು ನಾವು NCMEC ಯೊಂದಿಗೆ ಚರ್ಚಿಸುತ್ತಿದ್ದೇವೆ.
ನಾವು ಕಾನೂನು ಪಾಲನೆಯೊಂದಿಗೆ ಸಹಕರಿಸುತ್ತೇವೆ, ಅವರ ತನಿಖೆಗಳನ್ನು ಬೆಂಬಲಿಸುತ್ತೇವೆ ಮತ್ತು ನಮ್ಮ ಸಮುದಾಯವನ್ನು ಸುರಕ್ಷಿತವಾಗಿರಿಸಲು 24/7 ಕೆಲಸ ಮಾಡುವ ನಮ್ಮ ಜಾಗತಿಕ ಟ್ರಸ್ಟ್ ಮತ್ತು ಸುರಕ್ಷತೆ ಮತ್ತು ಕಾನೂನು ಜಾರಿ ಕಾರ್ಯಾಚರಣೆ ತಂಡಗಳಲ್ಲಿ ಹೆಚ್ಚು ಹೂಡಿಕೆ ಮಾಡುತ್ತೇವೆ. ನಾವು US ನಲ್ಲಿ ಕಾನೂನು ಜಾರಿಗಾಗಿ ವಾರ್ಷಿಕ ಶೃಂಗಸಭೆಗಳನ್ನು ಆಯೋಜಿಸುತ್ತೇವೆ, ನಮ್ಮ ಪ್ಲಾಟ್ಫಾರ್ಮ್ನಲ್ಲಿ ನಡೆಯಬಹುದಾದ ಯಾವುದೇ ಕಾನೂನುಬಾಹಿರ ಚಟುವಟಿಕೆಯ ವಿರುದ್ಧ ಸೂಕ್ತ ಕ್ರಮವನ್ನು ಹೇಗೆ ತೆಗೆದುಕೊಳ್ಳಬೇಕೆಂದು ಅಧಿಕಾರಿಗಳು ಮತ್ತು ಏಜೆನ್ಸಿಗಳಿಗೆ ತಿಳಿದಿರುವುದನ್ನು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳುವ ಗುರಿಯನ್ನು ಹೊಂದಿದ್ದೇವೆ.
ನಗ್ನತೆ ಮತ್ತು ಲೈಂಗಿಕ ವಿಷಯವನ್ನು ಮತ್ತು ನಿರ್ದಿಷ್ಟವಾಗಿ CSEAI ಅನ್ನು ಫ್ಲ್ಯಾಗ್ ಮಾಡಲು ನಮ್ಮ ಸಮುದಾಯಕ್ಕೆ ಆಯ್ಕೆಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ನಮ್ಮ ಅಪ್ಲಿಕೇಶನ್ನಲ್ಲಿ ವರದಿ ಮಾಡುವ ಪರಿಕರಗಳನ್ನು ವಿಸ್ತರಿಸುವುದನ್ನು ನಾವು ಮುಂದುವರಿಸುತ್ತೇವೆ. ಸಮಸ್ಯಾತ್ಮಕ ವಿಷಯ ಮತ್ತು ಖಾತೆಗಳನ್ನು ವರದಿ ಮಾಡುವುದು ಟೆಕ್ ಕಂಪನಿಗಳು ತಮ್ಮ ಸೇವೆಗಳಿಂದ ಕೆಟ್ಟ ನಟರನ್ನು ತೆಗೆದುಹಾಕಲು ಮತ್ತು ಇತರರಿಗೆ ಹಾನಿಯನ್ನುಂಟುಮಾಡುವ ಮೊದಲು ಹೆಚ್ಚಿನ ಚಟುವಟಿಕೆಯನ್ನು ತಡೆಯಲು ಸಹಾಯ ಮಾಡಲು ನಿರ್ಣಾಯಕವಾಗಿದೆ.
ತೀರಾ ಇತ್ತೀಚೆಗೆ, ನಾವು ನಮ್ಮ Family Center ಪರಿಕರಗಳ ಸೂಟ್ಗೆ ಹೊಸ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಸೇರಿಸಿದ್ದೇವೆ, ನಮ್ಮ AI ಚಾಟ್ಬಾಟ್ ಸೇರಿದಂತೆ ತಮ್ಮ ಹದಿಹರೆಯದವರು Snapchat ಅನ್ನು ಹೇಗೆ ಬಳಸುತ್ತಿದ್ದಾರೆ ಎಂಬುದನ್ನು ಚೆನ್ನಾಗಿ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಪೋಷಕರು ಇದನ್ನು ಬಳಸಬಹುದು. ತಮ್ಮ ವಿದ್ಯಾರ್ಥಿಗಳು Snapchat ಅನ್ನು ಹೇಗೆ ಬಳಸುತ್ತಾರೆ ಮತ್ತು ವಿದ್ಯಾರ್ಥಿಗಳಿಗೆ ಸುರಕ್ಷಿತ ಮತ್ತು ಬೆಂಬಲಿತ ಪರಿಸರವನ್ನು ರಚಿಸುವ ಪ್ರಯತ್ನಗಳಲ್ಲಿ ಶಾಲೆಗಳಿಗೆ ಸಹಾಯ ಮಾಡಲು ನಾವು ನೀಡುವ ಸಂಪನ್ಮೂಲಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಶಿಕ್ಷಣ ತಜ್ಞರು ಮತ್ತು ಶಾಲಾ ನಿರ್ವಾಹಕರಿಗೆ ಸಹಾಯ ಮಾಡಲು ನಾವು ಹೊಸ ಸಂಪನ್ಮೂಲಗಳನ್ನು ಬಿಡುಗಡೆ ಮಾಡಿದ್ದೇವೆ.
ಮತ್ತು, ಆನ್ಲೈನ್ ಲೈಂಗಿಕ ಹಾನಿಗಳ ಕುರಿತು ಸಾರ್ವಜನಿಕ ಮತ್ತು Snapchatter ಜಾಗೃತಿ ಮೂಡಿಸಲು ನಾವು ಹೂಡಿಕೆ ಮಾಡುವುದನ್ನು ಮುಂದುವರಿಸುತ್ತಿದ್ದೇವೆ. ನಮ್ಮ ಅಪ್ಲಿಕೇಶನ್ನಲ್ಲಿನ “ಸುರಕ್ಷತಾ Snapchat” ಸಂಚಿಕೆಗಳು ಮಕ್ಕಳ ಆನ್ಲೈನ್ ಗ್ರೂಮಿಂಗ್ ಮತ್ತು ಕಳ್ಳಸಾಗಣೆಯಂತಹ ವಿಷಯಗಳು ಸೇರಿದಂತೆ ಲೈಂಗಿಕ ಅಪಾಯಗಳ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುತ್ತವೆ. ಆನ್ಲೈನ್ ಮಕ್ಕಳ ಲೈಂಗಿಕ ದುರುಪಯೋಗದ ಕುರಿತು ಯುವಜನರು, ಪೋಷಕರು, ವಿಶ್ವಾಸಾರ್ಹ ವಯಸ್ಕರು ಮತ್ತು ನೀತಿ ನಿರೂಪಕರಿಗೆ ಶಿಕ್ಷಣ ಮತ್ತು ಅಧಿಕಾರ ನೀಡುವ ಕುರಿತು U.S. ಡಿಪಾರ್ಟ್ಮೆಂಟ್ ಆಫ್ ಹೋಮ್ಲ್ಯಾಂಡ್ ಸೆಕ್ಯುರಿಟಿ ಅಭಿಯಾನವಾದ Know2Protect ಅನ್ನು ಬೆಂಬಲಿಸುವ ಮೊದಲ ಘಟಕವೂ ಸಹ ನಾವು ಆಗಿದ್ದೇವೆ.
ಈ ರೀತಿಯ ಸಂಪೂರ್ಣ-ಸಮಾಜದ ಸಮಸ್ಯೆಗಳ ಬಗ್ಗೆ ಪೋಷಕರು, ಯುವಕರು, ಶಿಕ್ಷಣ ತಜ್ಞರು ಮತ್ತು ನೀತಿ ನಿರೂಪಕರು ಸೇರಿದಂತೆ ಎಲ್ಲಾ ರೀತಿಯ ಪಾಲುದಾರರೊಂದಿಗೆ ಕೆಲಸ ಮಾಡುವುದನ್ನು ಮುಂದುವರಿಸಲು ನಾವು ಎದುರು ನೋಡುತ್ತಿದ್ದೇವೆ ಮತ್ತು ನಮ್ಮ ಕ್ರಾಸ್-ಪ್ಲಾಟ್ಫಾರ್ಮ್ ಸಂಶೋಧನೆಯ ಒಳನೋಟಗಳು ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಮತ್ತು ಹೊಸ ಆನ್ಲೈನ್ ಬೆದರಿಕೆಗಳ ಬಗ್ಗೆ ಜನರಿಗೆ ತಿಳಿದಿದೆ ಮತ್ತು ಈ ಅಪಾಯಗಳನ್ನು ಎದುರಿಸಲು ಸಹಾಯ ಮಾಡಲು ಲಭ್ಯವಿರುವ ಸಂಪನ್ಮೂಲಗಳ ಬಗ್ಗೆ ತಿಳಿದಿದೆ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು ಹೊಸ ಆಲೋಚನೆಗಳು ಮತ್ತು ಅವಕಾಶಗಳನ್ನು ರಚಿಸಲು ಸಹಾಯ ಮಾಡುತ್ತದೆ ಎಂದು ಭಾವಿಸುತ್ತೇವೆ.
- ವಿರಾಜ್ ದೋಷಿ, ಪ್ಲಾಟ್ಫಾರ್ಮ್ ಸೇಫ್ಟಿ ಲೀಡ್