ബോളിവുഡ് താരങ്ങളുടെ നഗ്ന ഡീപ്പ് ഫേക്കുകളില്‍ നിര്‍ണ്ണായക തെളിവ്; അന്വേഷിച്ച് കണ്ടെത്തിയപ്പോള്‍ ട്വിസ്റ്റ്.!

By Web Team  |  First Published Nov 8, 2023, 7:49 AM IST

 ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 


ദില്ലി: ഡീപ്പ്ഫേക്ക് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച്  നിർമ്മിച്ച വീഡിയോ വൈറലായതിന് പിന്നാലെ സമാന കേസുകൾ വീണ്ടും റിപ്പോർട്ട് ചെയ്തു. ബോളിവുഡ് നടിമാരായ ആലിയ ഭട്ട്, കിയാര അദ്വാനി, കാജോൾ, ദീപിക പദുക്കോൺ തുടങ്ങിയവരുടെയും മറ്റുള്ളവരുടെയും വ്യാജ വീഡിയോകളും ചിത്രങ്ങളും നിർമ്മിച്ചതായാണ് കണ്ടെത്തൽ. സംഭവം പിടിക്കപ്പെട്ടതോടെ ഉപയോക്താവ് തന്റെ അക്കൗണ്ട് ഡീലിറ്റ് ചെയ്തു.

ബൂം ലൈവ് റിപ്പോർട്ട് അനുസരിച്ച്, മുമ്പ് @crazyashfan എന്നറിയപ്പെട്ടിരുന്ന ഒരു എക്സ് അക്കൗണ്ടാണ് ഇതിന് പിന്നിൽ. എഐ സാങ്കേതിക വിദ്യ ഉപയോഗിച്ച് അക്കൗണ്ടിന്റെ ഉടമ താരങ്ങളുടെത് എന്ന് തോന്നിക്കുന്ന അശ്ലീല വിഡിയോ പങ്കുവെച്ചത്. ഇത്തരത്തിലുള്ള 39 പോസ്റ്റുകളാണ് അക്കൗണ്ടിൽ ഉണ്ടായിരുന്നത്.

Latest Videos

undefined

സമാനമായ നാല് അക്കൗണ്ടുകൾ കൂടി കണ്ടെത്തിയിട്ടുണ്ട്.  ഡീപ്ഫേക്ക് ട്രെൻഡ് ബോളിവുഡിലെ പ്രമുഖരെ മാത്രമല്ല ബാധിച്ചിരിക്കുന്നത്. ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 

എഐ സൃഷ്ടിച്ച ഫോട്ടോകളും ജോഹാൻസനെ അനുകരിക്കുന്ന ശബ്ദവും പരസ്യത്തിൽ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. ആപ്പിനെതിരെ നിയമനടപടി സ്വീകരിക്കുമെന്ന് ജോഹാൻസന്റെ ടീം അറിയിച്ചു. ഇതിനുപിന്നാലെ എഐ നിയന്ത്രണത്തിന്റെ ആവശ്യകതയെക്കുറിച്ച് മൈക്രോസോഫ്റ്റ് പ്രസിഡന്റ് ബ്രാഡ് സ്മിത്തും അഭിപ്രായം പങ്കുവെച്ചിരുന്നു. എഐയുടെ ദുരുപയോഗത്തിൽ നിന്ന് ഉപയോക്താക്കളെ സംരക്ഷിക്കാനുള്ള നടപടി സ്വീകരിക്കുമെന്നും അദ്ദേഹം പറഞ്ഞു.

തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുന്ന അപകടകരമായ സംവിധാനമാണ് എഐ ഡീപ്പ് ഫേക്ക്. മയഥാർത്ഥമെന്ന് തോന്നും വിധത്തിൽ അത്യാധുനിക എഐ സാങ്കേതിക വിദ്യകളുടെ സഹായത്തോടെ നിർമിക്കുന്ന വ്യാജ ചിത്രങ്ങളും വീഡിയോകളും ശബ്ദങ്ങളുമാണ് ഡീപ്പ് ഫേക്കുകൾ എന്നറിയപ്പെടുന്നത്. ഒറിജിനലും ഫേക്കും കണ്ടുപിടിക്കാൻ പ്രയാസമാണ്. 

വ്യക്തിയുടെ മുഖത്തെ സവിശേഷതകൾ, ഭാവങ്ങൾ, ശബ്ദ പാറ്റേണുകൾ, ടാർഗെറ്റ് ചെയ്ത വ്യക്തിക്ക് പ്രത്യേകമായുള്ള മറ്റ് സവിശേഷതകൾ ഉണ്ടെങ്കിൽ അത് എന്നിവ തിരിച്ചറിയുകയും മാപ്പ് ചെയ്യുകയും ചെയ്യുന്നു. വീഡിയോകളിലോ ചിത്രങ്ങളിലോ മറ്റ് വ്യക്തികളിലേക്കോ ഈ പുനർനിർമ്മിച്ച ഡാറ്റ ചേർക്കാൻ  എഐയ്ക്ക് കഴിയും. തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുക, വ്യാജവാർത്തകൾ സൃഷ്‌ടിക്കുക, ആൾമാറാട്ടം നടത്തുക തുടങ്ങിയവയ്ക്ക് ഇത് ഉപയോഗിക്കാനാകുമെന്നത് ആശങ്കകൾ വർധിപ്പിക്കുന്നുണ്ട്.

'ഞാൻ സ്കൂളിലോ കോളേജിലോ പഠിക്കുമ്പോഴാണ് എനിക്ക് ഇത് സംഭവിച്ചതെങ്കിൽ': ഭയാനക സംഭവത്തില്‍ രശ്മിക.!

രശ്മിക മന്ദാനയുടെ വ്യാജ ഫോട്ടോയ്ക്ക് പിന്നിലെ വില്ലൻ; കരുതിയിരിക്കണം ഇവനെ, ചെയ്യേണ്ട കാര്യങ്ങൾ

​​​​​​​Asianet News Live
 

click me!