ആരുടെ ലൈംഗിക വീഡിയോകളും പോണ്സൈറ്റില് എത്താമെന്ന് റിപ്പോര്ട്ട്

ഗ്രാഫിക് പോണ് വീഡിയോകള് വ്യാപകമായി ഉപയോഗിക്കുന്നതായിട്ടാണ് റിപ്പോര്ട്ട്. ഗൂഗിളിന്റെ ആര്ട്ടഫിഷ്യല് ഇന്റലിജന്സ് ലൈബ്രറിയില് രൂപപ്പെടുത്തിയ ഡീപ് ഫെയ്ക്ക് ടൂളുകള് ഉപയോഗിച്ച് യാഥാര്ത്ഥ്യമെന്ന് തോന്നുന്ന രീതിയിലുള്ള വ്യാജ വീഡിയോ ചമയ്ക്കാന് കഴിയും. എയര്ബ്രഷിംഗും ഫോട്ടോഷോപ്പും വന്നതോടെ ഫോട്ടോകള് കൃത്രിമമായി ചമയ്ക്കുക എന്നത് ഒരു ദുഷ്ക്കരമായ കാര്യം അല്ലാതായി. ഈ രീതിയിലേക്കാണ് ഗുഗിളിന്റെ ആര്ട്ട്ഫീഷ്യല് ഇന്റലിജന്റ്് ലൈബ്രറിയിലെ ടൂളുകള് ഉപയോഗപ്പെടുത്തി ജീവന് തുളുമ്പുന്ന രീതിയില് ലൈംഗിക രംഗങ്ങള് നിര്മ്മി്ക്കുന്നത്.
നെറ്റില് കിട്ടുന്ന സാങ്കേതിക വിദ്യകള് ഉപയോഗിച്ച് അപമാനിക്കേണ്ടയാളുടെ മുഖവും മറ്റൊരാളുടെ ശരീരവും കൂട്ടിയോജിപ്പിച്ച് അസാധാരണ മിഴിവവോടു കൂടി യഥാര്ത്ഥ്യത്തെ വെല്ലുന്ന വ്യാജ വീഡിയോകള് നിര്മ്മിക്കപ്പെടുന്നു. ഇത്തരം വീഡിയോകള് പിന്നീട് പോണ് സൈറ്റുകളില് പോസ്റ്റ് ചെയ്ത് എതിരാളികളായ സ്ത്രീകള്ക്കിട്ട് പണി കൊടുക്കുകയും അവരെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യാന് ഉപയോഗിക്കുകയും ചെയ്യുന്നതാണ് പുതിയ രീതി. സാധാരണക്കാര് മുതല് ഹോളിവുഡ് നടിമാര് വരെ ഈ കെണിയില് പെടുകയും പോണ്സൈറ്റുകളില് അനേകര് കാണുന്നതിന് കാരണമാകുകയും ചെയ്യുന്നു.
നടി സ്കാര്ലറ്റ് ജോഹാന്സണ് പോലും അടുത്തിടെ ആരെ വേണമെങ്കിലും ഈ രീതിയില് ലക്ഷ്യമിടാമെന്ന് ആശങ്കപ്പെട്ടിരുന്നു. കഴിഞ്ഞ വര്ഷം ഡസന് കണക്കിന് തവണയാണ് ഗ്രാഫിക് സെക്സ് സീനുകള്ക്ക് ജോഹാന്സണ് ഇരയായത്. ഇത്തരത്തില് ഒരു വീഡിയോ പോണ്സൈറ്റുകളില് കണ്ടത് 1.5 ദശലക്ഷം തവണയാണ്. തന്റെ മുഖം ആരോ എടുത്ത് മറ്റൊരു ശരീരവുമായി കൂട്ടിയിണക്കി വിശ്വസിപ്പിക്കുന്ന രീതിയില് ചെയ്തെടുക്കുകയായിരുന്നെന്ന് അവര് പറഞ്ഞു. അടുത്തിടെ ഗൂഗിള് ഇത്തരം കാര്യങ്ങള്ക്ക് ചില നിയന്ത്രണം കൊണ്ടുവന്നെങ്കിലും അതിനെയെല്ലാം മറികടന്ന നെറ്റില് എത്തുന്ന വീഡിയോകളുടെ എണ്ണം കൂടുകയുമായിരുന്നു.
ഡീപ് ഫേക്കിന്റെ ഡിസ്ക്കഷന് ബോര്ഡുകളില് അജ്ഞാതരുമായി സംസാരിക്കാന് വരുന്നവര്, സ്വകാര്യ ചാറ്റിലേക്ക് സഹപ്രവര്ത്തകരെ ക്ഷണിക്കുന്നവര്, കഌസ്സ്മേറ്റുകള്, കൂട്ടുകാര് എന്നിങ്ങനെ 20 ഡോളര് കൊടുക്കാനായാല് ആരുടേയും വ്യാജനെ നിര്മ്മിക്കാനാകും. അടുത്തിടെ ചിലര് ഹോളിവുഡ് നടന് നിക്കോളാസ് കേജിന്റെ മുഖം ട്രംപിന്റെ മുഖവുമായി മാറ്റി വെച്ചിരുന്നു. ഇങ്ങിനെ അജ്ഞാത യുവതികളെ വേഗത്തില് ലൈംഗിക ബിംബമാക്കി മാറ്റാന് കഴിയുമെന്നതാണ് ഇക്കാര്യത്തിലെ അപകടം.
https://www.facebook.com/Malayalivartha