GenAI ലൈംഗിക ഉള്ളടക്കവുമായി ഏതുവിധത്തിലാണ് ആളുകൾ ഇടപഴകുന്നത് എന്നതിനെക്കുറിച്ചുള്ള പുതിയ ഗവേഷണം
19 നവംബർ 2024
സമീപ വർഷങ്ങളിലെ AI ടൂളുകളുടെ ദ്രുതഗതിയിലുള്ള വര്ദ്ധനവ് സർഗ്ഗാത്മകതയ്ക്കും പഠനത്തിനും സമ്പർക്കത്തിനുമുള്ള പുതിയ അവസരങ്ങൾ സൃഷ്ടിക്കുകയും, അവ സൃഷ്ടിക്കുന്നത് തുടരുകയും ചെയ്യും. എന്നിരുന്നാലും, നിലവിലുള്ള ഓൺലൈൻ അപകടസാധ്യതകൾക്ക് ഈ സാങ്കേതികവിദ്യ പുതിയ ചലനാത്മകതയും അവതരിപ്പിച്ചിട്ടുണ്ട്. ഓൺലൈനിൽ ലൈംഗിക ചുവയുള്ള AI-ചിത്രങ്ങളും വീഡിയോകളും അഭിമുഖീകരിക്കുന്ന ആളുകളുടെ എണ്ണം വർദ്ധിച്ചുകൊണ്ടിരിക്കുമ്പോൾ, ഈ ഉള്ളടക്കങ്ങളിൽ ചിലതിൻ്റെ നിയമവിരുദ്ധതയെക്കുറിച്ചുള്ള അവബോധം ഒരു വെല്ലുവിളിയായി തുടരുന്നുവെന്ന് പുതിയ ഗവേഷണം കാണിക്കുന്നു.
എല്ലാ പ്ലാറ്റ്ഫോമുകളിലും സേവനങ്ങളിലുമുള്ള കൗമാരക്കാരുടെയും ചെറുപ്പക്കാരുടെയും മനോഭാവങ്ങളെയും പെരുമാറ്റങ്ങളെയും കുറിച്ച് കൂടുതൽ നന്നായി മനസ്സിലാക്കുന്നതിന്, ഞങ്ങളുടെ ഡിജിറ്റൽ വെൽ-ബീയിംഗ് ഇൻഡക്സ് എന്ന പേരിൽ സ്നാപ്പ് വര്ഷം തോറും വ്യവസായ വ്യാപകമായ ഗവേഷണം നടത്തുകയും പങ്കിടുകയും ചെയ്യുന്നു. (സ്നാപ്പ് ഗവേഷണം കമ്മീഷൻ ചെയ്തു, പക്ഷേ ഇത് സാധാരണയായി ഡിജിറ്റൽ ഇടങ്ങളിലുടനീളമുള്ള ജനറേഷൻ Z-ന്റെ അനുഭവങ്ങൾ ഉൾക്കൊള്ളുന്നു, Snapchat-ൽ പ്രത്യേക ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നില്ല.) 2025 ഫെബ്രുവരിയിലെ അന്താരാഷ്ട്ര സുരക്ഷിത ഇൻ്റർനെറ്റ് ദിനത്തോടനുബന്ധിച്ച് ഞങ്ങളുടെ മൂന്നാം വർഷ പഠനത്തിൻ്റെ മുഴുവൻ ഫലങ്ങളും പ്രസിദ്ധീകരിക്കാൻ ഞങ്ങൾ പദ്ധതിയിടുമ്പോൾ, കൗമാരപ്രായക്കാർ, യുവാക്കൾ, കൂടാതെ രക്ഷിതാക്കൾ പോലും ജനറേറ്റീവ് AI- അധിഷ്ഠിത ലൈംഗിക ഉള്ളടക്കവുമായി എങ്ങനെ ഇടപഴകുകയും പ്രതികരിക്കുകയും ചെയ്യുന്നു എന്നതിനെക്കുറിച്ചുള്ള ചില പ്രധാന കണ്ടെത്തലുകൾ പ്രിവ്യൂ ചെയ്യാൻ ഞങ്ങൾ ആഗ്രഹിക്കുന്നു. ഈ ആഴ്ചയിൽ കുട്ടികളുടെ ലൈംഗിക ചൂഷണത്തെയും ദുരുപയോഗത്തെയും കുറിച്ചുള്ള ആഗോള ശ്രദ്ധയുടെ വെളിച്ചത്തിലും, AI- സൃഷ്ടിച്ച ലൈംഗിക ഉള്ളടക്കവുമായി ബന്ധപ്പെട്ട ദോഷങ്ങൾ പരിഹരിക്കുന്നതിൽ ശ്രദ്ധ കേന്ദ്രീകരിച്ച എംപവറിംഗ് വോയ്സസ് DC ഉച്ചകോടിയിലെ ഞങ്ങളുടെ പങ്കാളിത്തത്തോടനുബന്ധിച്ചും ഞങ്ങൾ ഇന്ന് അങ്ങനെ ചെയ്യുന്നു.
ഉദാഹരണത്തിന്, 6 രാജ്യങ്ങളിലെ 9,007 കൗമാരക്കാർ, ചെറുപ്പക്കാർ, കൗമാരക്കാരുടെ രക്ഷിതാക്കള് എന്നിവരെ സർവേ നടത്തിയ ഞങ്ങളുടെ പഠനത്തിൽ 1, 24% പേർ ഏതെങ്കിലും തരത്തിലുള്ള AI-സൃഷ്ടിച്ച ലൈംഗിക സ്വഭാവമുള്ള ചിത്രങ്ങളോ വീഡിയോകളോ കണ്ടതായി പറഞ്ഞു. ഇത്തരത്തിലുള്ള ഉള്ളടക്കം കണ്ടതായി അവകാശപ്പെട്ടവരിൽ, 2% പേർ മാത്രമാണ് ചിത്രങ്ങൾ 18 വയസ്സിന് താഴെയുള്ള ഒരാളുടേതാണെന്ന് പറഞ്ഞത്.

പ്രോത്സാഹജനകമായി, ആളുകൾ ഇത്തരത്തിലുള്ള ഉള്ളടക്കം കണ്ടപ്പോൾ, 10-ൽ 9 പേരും ചില നടപടികളെടുത്തു, ഉള്ളടക്കം തടയുകയോ ഇല്ലാതാക്കുകയോ ചെയ്യുന്നത് (54%) മുതൽ വിശ്വസ്തരായ സുഹൃത്തുക്കളുമായോ കുടുംബാംഗങ്ങളുമായോ (52%) സംസാരിക്കുന്നത് വരെ. എന്നിരുന്നാലും, 42% പേർ മാത്രമാണ് ഉള്ളടക്കം കണ്ട പ്ലാറ്റ്ഫോമിലോ സേവനത്തിലോ അല്ലെങ്കിൽ ഒരു ഹോട്ട്ലൈൻ / ഹെൽപ്പ്ലൈനിലോ റിപ്പോർട്ട് ചെയ്തതായി പറഞ്ഞത്. സാധാരണയായി ഡിജിറ്റൽ സുരക്ഷയുമായി ബന്ധപ്പെട്ട പ്രശ്നങ്ങളിലെ കുറഞ്ഞ റിപ്പോർട്ടിംഗ് നിരക്കുകളുടെ ഒരു വലിയ പ്രവണതയെ ഈ ഉൾക്കാഴ്ച പിന്തുടരുന്നു. ഞങ്ങൾ മുമ്പത്തെ ഒരു പോസ്റ്റിൽ, യുവാക്കൾ ചില പ്രശ്നകരമായ ഓൺലൈൻ ഉള്ളടക്കങ്ങളും പെരുമാറ്റങ്ങളുമായുള്ള സമ്പർക്കം സാധാരണവൽക്കരിക്കാതിരിക്കാനും റിപ്പോർട്ടിംഗിനെ നിസ്സാരമായ പരാതിപ്പെടുത്തലുമായി തുല്യമാക്കാതിരിക്കാനും റിപ്പോർട്ടിംഗിനെക്കുറിച്ചുള്ള നിഷേധാത്മക ധാരണകളെ ചെറുക്കേണ്ടതിൻ്റെ പ്രാധാന്യം ചൂണ്ടിക്കാട്ടിയിരുന്നു.
പ്രായപൂർത്തിയാകാത്തവരുടെ ലൈംഗിക ചിത്രങ്ങൾ റിപ്പോർട്ടുചെയ്യാനുള്ള പ്ലാറ്റ്ഫോമുകൾ/സേവനങ്ങൾക്കുള്ള നിയമപരമായ ബാധ്യതയെക്കുറിച്ച് പ്രതികരിച്ചവരിൽ 40% ത്തിലധികം പേർക്കും വ്യക്തതയില്ല എന്നതാണ് അതിലും ഭയാനകമായത്, അത്തരം ചിത്രങ്ങൾ തമാശകളോ മീമുകളോ ആയി ഉദ്ദേശിച്ചുള്ളതാണെങ്കിൽ പോലും. കൂടാതെ, ഒരു വ്യക്തിയുടെ വ്യാജ ലൈംഗിക ഉള്ളടക്കം സൃഷ്ടിക്കുന്നതിനോ അല്ലെങ്കില് പ്രായപൂർത്തിയാകാത്തവരുടെ ലൈംഗിക ചിത്രങ്ങൾ സൂക്ഷിക്കുന്നതിനോ കാണുന്നതിനോ പങ്കിടുന്നതിനോ AI സാങ്കേതികവിദ്യ ഉപയോഗിക്കുന്നത് നിയമവിരുദ്ധമാണെന്ന് ഒരു വലിയ വിഭാഗം (70%+) തിരിച്ചറിഞ്ഞിട്ടുണ്ടെങ്കിലും, ഇത്തരത്തിലുള്ള ഉള്ളടക്കവുമായി ബന്ധപ്പെട്ട നിയമപരമായ ആവശ്യകതകളെക്കുറിച്ച് പൊതുജനങ്ങൾ ബോധവാന്മാരാണെന്ന് ഉറപ്പാക്കാൻ ഗണ്യമായ ജോലി ചെയ്യേണ്ടതുണ്ടെന്ന് ഈ കണ്ടെത്തലുകൾ സൂചിപ്പിക്കുന്നു.
ഉദാഹരണത്തിന്, U.S-ൽ, ഒരു വ്യക്തിയുടെ വ്യാജ ലൈംഗിക ചിത്രങ്ങൾ സൃഷ്ടിക്കാൻ AI സാങ്കേതികവിദ്യ ഉപയോഗിക്കുന്നത് നിയമപരമാണെന്ന് തങ്ങൾ വിശ്വസിക്കുന്നതായി പ്രതികരിച്ചവരിൽ ഏകദേശം 40% പറഞ്ഞു. കൂടാതെ, വ്യക്തിപരമായി, വ്യവസായത്തിലെ സഹപ്രവർത്തകരിൽ നിന്ന് ആശങ്കാജനകമായ ഒരു പ്രവണതയെക്കുറിച്ച് ഞങ്ങൾ കേട്ടിട്ടുണ്ട്: ഇത്തരത്തിലുള്ള ഉള്ളടക്കത്തിൻ്റെ വ്യാപനത്തോടെ, തങ്ങളുടെ സമപ്രായക്കാർ അനുചിതമായി സൃഷ്ടിക്കുകയും പങ്കിടുകയും ചെയ്യുന്ന AI-കൃത്രിമത്വമുള്ള ലൈംഗിക ചിത്രങ്ങളില് അവർ ഇല്ലെങ്കിൽ പ്രത്യേകിച്ചും ചില കൗമാരപ്രായക്കാരായ പെൺകുട്ടികള്ക്ക് "ഒഴിവാക്കപ്പെട്ടതായി" അനുഭവപ്പെടുന്നു. ഈ പ്രത്യേക ഓൺലൈൻ അപകടസാധ്യതയെക്കുറിച്ച് ബോധവൽക്കരിക്കുകയും അവബോധം വളർത്തുകയും ചെയ്യേണ്ടതിൻ്റെ ആവശ്യകതയെ ഈ അസ്വസ്ഥപ്പെടുത്തുന്ന സൂചന അടിവരയിടുന്നു. ഇത്തരത്തിലുള്ള പെരുമാറ്റം നിരുത്സാഹപ്പെടുത്തുന്നതിൽ വിശ്വസ്തരായ മുതിർന്നവരും അറിവുള്ള സഹപാഠികളും സജീവമായ പങ്ക് വഹിക്കണം.
Snap-ൻ്റെ തുടരുന്ന പ്രതിബദ്ധത
Snapchat-ലും സാങ്കേതിക ആവാസവ്യവസ്ഥയിലുടനീളവും സുരക്ഷിതവും ആരോഗ്യകരവും കൂടുതൽ പോസിറ്റീവുമായ അനുഭവങ്ങൾ വളർത്താൻ സഹായിക്കുന്നതിന് Snap-ൽ ഞങ്ങൾ തുടർച്ചയായി ഉറവിടങ്ങൾ, ഉപകരണങ്ങൾ, സാങ്കേതികവിദ്യ എന്നിവയിൽ നിക്ഷേപം നടത്തുന്നു.
ചില സന്ദർഭങ്ങളിൽ, നിയമവിരുദ്ധമായ പ്രവർത്തനം തിരിച്ചറിയാൻ ഞങ്ങൾ പെരുമാറ്റ "സിഗ്നലുകൾ" ഉപയോഗിക്കുന്നു, അതുവഴി മോശം വ്യക്തികളെ സജീവമായി നീക്കം ചെയ്യാനും അധികാരികൾക്ക് റിപ്പോർട്ട് ചെയ്യാനും ഞങ്ങള്ക്ക് കഴിയും. മാത്രമല്ല, ഒരു സംഭാഷണ AI ചാറ്റ്ബോട്ട് ഉൾപ്പെടുന്ന ഒരു സേവനമെന്ന നിലയിൽ, Snapchat-ൽ അത്തരം മെറ്റീരിയലുകൾ സൃഷ്ടിക്കുന്നത് തടയുന്നതിൽ കൂടുതൽ ജാഗ്രത പുലർത്താനും മറ്റ് പ്ലാറ്റ്ഫോമുകളിൽ സൃഷ്ടിക്കപ്പെട്ടേക്കാവുന്ന മെറ്റീരിയലുകൾ പങ്കിടുന്നതിനും വിതരണം ചെയ്യുന്നതിനുമെതിരെ ജാഗ്രത പുലർത്താനും ഞങ്ങൾ ശ്രമിക്കുന്നു. പ്രായപൂർത്തിയാകാത്തവരുടെ AI-സൃഷ്ടിച്ചതായി സംശയിക്കപ്പെടുന്ന ലൈംഗിക ചിത്രങ്ങളെ ഞങ്ങൾ "യഥാർത്ഥമായ" ചൈൽഡ് സെക്ഷ്വൽ എക്സ്പ്ലോയിറ്റേഷൻ ആൻഡ് അബ്യൂസ് ഇമേജറി (CSEAI) പോലെയാണ് പരിഗണിക്കുന്നത്, ഉള്ളടക്കം ശ്രദ്ധയിൽപ്പെട്ടാൽ അത് നീക്കം ചെയ്യുകയും, ലംഘിക്കുന്ന അക്കൗണ്ട് താൽക്കാലികമായി നിർത്തി വയ്ക്കുകയും, കൂടാതെ ഇത് നാഷണൽ സെന്റര് ഫോർ മിസ്സിംഗ് ആൻഡ് എക്സ്പ്ലോയിറ്റഡ് ചിൽഡ്രനിൽ (NCMEC) റിപ്പോർട്ട് ചെയ്യുകയും ചെയ്യുന്നു. PhotoDNA (അറിയപ്പെടുന്ന നിയമവിരുദ്ധ ചിത്രങ്ങളുടെ പകർപ്പുകൾ കണ്ടെത്തുന്നതിന്), Google-ൻ്റെ CSAI മാച്ച് (അറിയപ്പെടുന്ന നിയമവിരുദ്ധ വീഡിയോകളുടെ പകർപ്പുകൾ കണ്ടെത്താൻ) എന്നിവയുൾപ്പെടെ CSEAI-യുടെ വ്യാപനം തടയുന്നതിന് രൂപകൽപ്പന ചെയ്ത സാങ്കേതികവിദ്യ ഉപയോഗപ്പെടുത്തുന്നതിനും വിന്യസിക്കുന്നതിനും പുറമേയാണിത്. ഞങ്ങൾ അടുത്തിടെ Google-ൻ്റെ കോണ്ടെന്റ് സേഫ്റ്റി API ഉപയോഗിക്കാനും തുടങ്ങി (നോവൽ കണ്ടെത്തുന്നതിൽ സഹായിക്കാൻ, പൊതു ഉള്ളടക്കത്തിലെ "ഒരിക്കലും ഹാഷ് ചെയ്തിട്ടില്ലാത്ത" ചിത്രങ്ങള്). GenAI ഉൾപ്പെടുന്ന കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്ന മെറ്റീരിയലുമായി ബന്ധപ്പെട്ട് കഴിഞ്ഞ വർഷം ലഭിച്ച 4,700 റിപ്പോർട്ടുകളിലെ അതുല്യമായ ഡിജിറ്റൽ സിഗ്നേച്ചറുകൾ (അല്ലെങ്കിൽ "ഹാഷുകൾ") എങ്ങനെ ഉപയോഗപ്പെടുത്താം എന്നതിനെക്കുറിച്ചും ഞങ്ങൾ NCMEC-യുമായി ഏർപ്പെട്ടിട്ടുണ്ട്.
ഞങ്ങൾ നിയമപാലകരുമായി സഹകരിക്കുന്നു, അവരുടെ അന്വേഷണങ്ങളെ പിന്തുണയ്ക്കുന്നു, ഞങ്ങളുടെ കമ്മ്യൂണിറ്റിയെ സുരക്ഷിതമായി നിലനിർത്താൻ സഹായിക്കുന്നതിന് 24/7 പ്രവർത്തിക്കുന്ന ഞങ്ങളുടെ ഗ്ലോബൽ ട്രസ്റ്റ് ആൻഡ് സേഫ്റ്റി, ലോ എൻഫോഴ്സ്മെൻ്റ് ഓപ്പറേഷൻസ് ടീമുകൾ എന്നിവയിൽ വളരെയധികം നിക്ഷേപം നടത്തുന്നു. ഞങ്ങളുടെ പ്ലാറ്റ്ഫോമിൽ നടന്നേക്കാവുന്ന ഏതെങ്കിലും നിയമവിരുദ്ധ പ്രവർത്തനങ്ങൾക്കെതിരെ ഉചിതമായ നടപടി സ്വീകരിക്കുന്നത് എങ്ങനെയെന്ന് ഓഫീസർമാർക്കും ഏജൻസികൾക്കും അറിയാമെന്ന് ഉറപ്പാക്കാൻ ലക്ഷ്യമിട്ട് ഞങ്ങൾ U.S-ല് നിയമപാലകർക്കായി വാർഷിക ഉച്ചകോടികൾ സംഘടിപ്പിക്കുന്നു.
ഞങ്ങളുടെ ആപ്പില് നിന്ന് റിപ്പോര്ട്ട് ചെയ്യുന്നതിനുള്ള ടൂളുകൾ വിപുലീകരിക്കുന്നതും ഞങ്ങൾ തുടരുന്നു, അതിൽ ഞങ്ങളുടെ കമ്മ്യൂണിറ്റിക്ക് നഗ്നതയും ലൈംഗിക ഉള്ളടക്കവും, പ്രത്യേകിച്ച് CSEAI-യും ഫ്ലാഗ് ചെയ്യുന്നതിനുള്ള ഓപ്ഷനുകൾ ഉൾപ്പെടുന്നു. പ്രശ്നകരമായ ഉള്ളടക്കവും അക്കൗണ്ടുകളും റിപ്പോർട്ട് ചെയ്യുന്നത് ടെക് കമ്പനികളെ അവരുടെ സേവനങ്ങളിൽ നിന്ന് മോശം വ്യക്തികളെ നീക്കം ചെയ്യാനും മറ്റുള്ളവർക്ക് ദോഷം വരുത്തുന്നതിനു മുമ്പ് കൂടുതൽ പ്രവർത്തനങ്ങൾ തടയാനും സഹായിക്കുന്നതിൽ നിർണായകമാണ്.
അടുത്തിടെ, ഞങ്ങളുടെ കുടുംബ കേന്ദ്ര സ്യൂട്ട് ടൂളുകളിലേക്ക് ഞങ്ങൾ പുതിയ സവിശേഷതകള് ചേർത്തിട്ടുണ്ട്, രക്ഷിതാക്കള്ക്ക് അവരുടെ കൗമാരക്കാർ ഞങ്ങളുടെ AI ചാറ്റ്ബോട്ട് ഉൾപ്പെടെ, Snapchat ഉപയോഗിക്കുന്നതെങ്ങനെയെന്ന് നന്നായി മനസ്സിലാക്കാൻ അവ ഉപയോഗിക്കാനാകും. അധ്യാപകരെയും സ്കൂൾ അഡ്മിനിസ്ട്രേറ്റർമാരെയും അവരുടെ വിദ്യാർത്ഥികൾ Snapchat എങ്ങനെ ഉപയോഗിക്കുന്നുവെന്ന് മനസ്സിലാക്കാൻ സഹായിക്കുന്ന പുതിയ ഉറവിടങ്ങളും, വിദ്യാർത്ഥികൾക്ക് സുരക്ഷിതവും പിന്തുണ നൽകുന്നതുമായ അന്തരീക്ഷം സൃഷ്ടിക്കുന്നതിനുള്ള അവരുടെ ശ്രമങ്ങളിൽ സ്കൂളുകളെ സഹായിക്കുന്നതിന് ഞങ്ങൾ വാഗ്ദാനം ചെയ്യുന്ന ഉറവിടങ്ങളും ഞങ്ങൾ പുറത്തിറക്കി.
കൂടാതെ, ഓൺലൈൻ ലൈംഗിക അപകടങ്ങളെക്കുറിച്ച് പൊതുജനങ്ങൾക്കും സ്നാപ്ചാറ്റർക്കുമുള്ള അവബോധം വളർത്തുന്നതിനുള്ള മാർഗങ്ങളിൽ ഞങ്ങൾ നിക്ഷേപം തുടരുന്നു. ഞങ്ങളുടെ ആപ്പിലുള്ള "സേഫ്റ്റി സ്നാപ്ഷോട്ട്" എപ്പിസോഡുകൾ കുട്ടികളുടെ ഓൺലൈൻ ചൂഷണം, ട്രാഫിക്കിംഗ് തുടങ്ങിയ വിഷയങ്ങൾ ഉൾപ്പെടെയുള്ള ലൈംഗിക അപകടസാധ്യതകളിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നു. ഓണ്ലൈനില് കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നതിനെ കുറിച്ച് യുവാക്കളെയും രക്ഷിതാക്കളെയും വിശ്വസ്തരായ മുതിർന്നവരെയും നയരൂപകർത്താക്കളെയും ബോധവൽക്കരിക്കുകയും ശാക്തീകരിക്കുകയും ചെയ്യുന്ന U.S. ഡിപ്പാർട്ട്മെൻ്റ് ഓഫ് ഹോംലാൻഡ് സെക്യൂരിറ്റി കാമ്പെയ്ൻ ആയ Know2Protect-നെ പിന്തുണയ്ക്കുന്ന ആദ്യത്തെ സ്ഥാപനം കൂടിയായിരുന്നു ഞങ്ങൾ.
എല്ലാ തരത്തിലുള്ള പങ്കാളികളുമായും -- രക്ഷിതാക്കള്, യുവാക്കൾ, അധ്യാപകർ, നയരൂപകർത്താക്കൾ എന്നിവരുമായി ഇത്തരത്തിലുള്ള സമൂഹത്തിൻ്റെ മുഴുവൻ പ്രശ്നങ്ങളിലും തുടർന്നും പ്രവർത്തിക്കാൻ ഞങ്ങൾ ആഗ്രഹിക്കുന്നു -- ഞങ്ങളുടെ ക്രോസ്-പ്ലാറ്റ്ഫോം ഗവേഷണത്തിൽ നിന്നുള്ള ഉൾക്കാഴ്ചകൾ നിലവിലുള്ളതും പുതിയതുമായ ഓൺലൈൻ ഭീഷണികളെക്കുറിച്ചും ഈ അപകടസാധ്യതകളെ നേരിടാൻ സഹായിക്കുന്ന ഉറവിടങ്ങളെക്കുറിച്ചും ആളുകൾ ബോധവാന്മാരാണെന്ന് ഉറപ്പാക്കുന്നതിന് പുതിയ ആശയങ്ങളും അവസരങ്ങളും സൃഷ്ടിക്കാൻ സഹായിക്കുമെന്ന് പ്രതീക്ഷിക്കുന്നു.
— വിരാജ് ദോഷി, പ്ലാറ്റ്ഫോം സേഫ്റ്റി ലീഡ്