നിർമിത ബുദ്ധി (ആർടിഫിഷ്യൽ ഇന്‍റലിജൻസ് – എഐ) സഹായത്തോടെ ദുബായിലെ ഇന്ത്യൻ ശതകോടീശ്വരന്‍റെ ശബ്ദം നിർമിച്ച് തട്ടിപ്പിന് ശ്രമം. ജീവനക്കാരന്‍റെ സന്ദർഭോചിതമായ ഇടപെടൽ മൂലം വൻതുക നഷ്ടപ്പെട്ടില്ല.

നിർമിത ബുദ്ധി (ആർടിഫിഷ്യൽ ഇന്‍റലിജൻസ് – എഐ) സഹായത്തോടെ ദുബായിലെ ഇന്ത്യൻ ശതകോടീശ്വരന്‍റെ ശബ്ദം നിർമിച്ച് തട്ടിപ്പിന് ശ്രമം. ജീവനക്കാരന്‍റെ സന്ദർഭോചിതമായ ഇടപെടൽ മൂലം വൻതുക നഷ്ടപ്പെട്ടില്ല.

Want to gain access to all premium stories?

Activate your premium subscription today

  • Premium Stories
  • Ad Lite Experience
  • UnlimitedAccess
  • E-PaperAccess

നിർമിത ബുദ്ധി (ആർടിഫിഷ്യൽ ഇന്‍റലിജൻസ് – എഐ) സഹായത്തോടെ ദുബായിലെ ഇന്ത്യൻ ശതകോടീശ്വരന്‍റെ ശബ്ദം നിർമിച്ച് തട്ടിപ്പിന് ശ്രമം. ജീവനക്കാരന്‍റെ സന്ദർഭോചിതമായ ഇടപെടൽ മൂലം വൻതുക നഷ്ടപ്പെട്ടില്ല.

Want to gain access to all premium stories?

Activate your premium subscription today

  • Premium Stories
  • Ad Lite Experience
  • UnlimitedAccess
  • E-PaperAccess

ദുബായ് ∙ നിർമിത ബുദ്ധി (ആർടിഫിഷ്യൽ ഇന്‍റലിജൻസ് – എഐ) സഹായത്തോടെ ദുബായിലെ ഇന്ത്യൻ ശതകോടീശ്വരന്‍റെ ശബ്ദം നിർമിച്ച് തട്ടിപ്പിന് ശ്രമം. ജീവനക്കാരന്‍റെ സന്ദർഭോചിതമായ ഇടപെടൽ മൂലം വൻതുക നഷ്ടപ്പെട്ടില്ല. ബഹുരാഷ്ട്ര കമ്പനിയായ ഭാരതി എന്‍റർപ്രൈസസിന്‍റെ സ്ഥാപകനും ചെയർമാനുമായ സുനിൽ ഭാരതി മിത്തലാണ് ഞെട്ടിക്കുന്ന വ്യക്തിപരമായ അനുഭവം വെളിപ്പെടുത്തിയത്. 

വ്യവസായിയുടെ  മുതിർന്ന എക്സിക്യൂട്ടീവുകളിൽ ഒരാളെ അദ്ദേഹത്തിന്‍റെ ശബ്ദത്തില്‍ വിളിച്ച് കബളിപ്പിച്ച് വലിയ സാമ്പത്തിക കൈമാറ്റത്തിന് അംഗീകാരം നൽകുകയായിരുന്നു. തന്‍റെ ശബ്ദത്തിന്‍റെ അനുകരണം കേട്ട് താൻ പോലും സ്തംഭിച്ചുപോയെന്ന് അദ്ദേഹം പറഞ്ഞു. ഞങ്ങളുടെ ആഫ്രിക്കയിലെ ബിസിനസ് കൈകാര്യം ചെയ്യുന്ന ദുബായിലെ എന്‍റെ സീനിയർ ഫിനാൻസ് എക്‌സിക്യൂട്ടീവുകളിൽ ഒരാൾക്ക് എന്‍റെ സ്വരത്തിൽ ഒരു കോൾ ലഭിച്ചു. വലിയ പണം കൈമാറ്റം ചെയ്യാൻ അദ്ദേഹത്തോട് നിർദേശിക്കുകയായിരുന്നു. ഞാൻ ഒരിക്കലും ഫോണിലൂടെ ഇത്തരമൊരു അഭ്യർഥന നടത്തില്ലെന്ന് മനസ്സിലാക്കാൻ അദ്ദേഹത്തിന് വിവേകമുണ്ടായിരുന്നതിനാൽ രക്ഷപ്പെട്ടു.

ADVERTISEMENT

ശബ്ദത്തിൽ സംശയം തോന്നി താൻ പെട്ടെന്ന് റിപ്പോർട്ട് ചെയ്യുകയായിരുന്നുവെന്ന് പേര് വെളിപ്പെടുത്താത്ത എക്സിക്യൂട്ടീവ് പറഞ്ഞു. ഇതുമൂലം വലിയ സാമ്പത്തിക നഷ്ടം ഇല്ലാതാക്കാൻ സാധിച്ചു. എഐയുടെ ദുരുപയോഗം, പ്രത്യേകിച്ച് ഡീപ്ഫേയ്ക്ക് സാങ്കേതികവിദ്യയെക്കുറിച്ച് ആഗോളതലത്തിലും യുഎഇയിലും വർധിച്ചുവരുന്ന ആശങ്കകൾക്കിടയിലാണ് ഈ സംഭവം. 

 ∙  ഡീപ് ഫെയ്ക്ക്; യുഎഇ സൈബർ സെക്യൂരിറ്റി കൗൺസിൽ മുന്നറിയിപ്പ് നൽകുന്നു
വഞ്ചന, സ്വകാര്യത ലംഘിക്കൽ, തെറ്റായ വിവരങ്ങൾ എന്നിവയുടെ അപകടസാധ്യതകളെക്കുറിച്ച് യുഎഇ സൈബർ സെക്യൂരിറ്റി കൗൺസിൽ അടുത്തിടെ മുന്നറിയിപ്പ് നൽകിയിരുന്നു. ഡീപ് ഫെയ്ക്കുകൾ യഥാർഥ ആളുകളെ അനുകരിക്കാൻ രൂപകൽപന ചെയ്‌ത എഐ ജനറേറ്റഡ് മാധ്യമമാണ്. വ്യക്തികൾക്കും സ്ഥാപനങ്ങൾക്കും ഗുരുതരമായ ഭീഷണി ഉയർത്തുന്ന ഈ വിദ്യയിലൂടെ   വിഡിയോകളോ ചിത്രങ്ങളോ ഓഡിയോയോ സൃഷ്‌ടിക്കാനാകും

ADVERTISEMENT

ഡീപ് ഫെയ്ക്ക് ഉള്ളടക്കം പങ്കിടുന്നത് വഞ്ചനയ്‌ക്കോ നിയമപരമായ പ്രത്യാഘാതങ്ങൾക്കോ ഇടയാക്കുമെന്ന് മുന്നറിയിപ്പ് നൽകിക്കൊണ്ട് യുഎഇ സൈബർ സെക്യൂരിറ്റി കൗൺസിൽ  ബോധവൽക്കരണ ക്യാംപെയ്ൻ ആരംഭിച്ചിട്ടുണ്ട്. അടുത്തിടെ നടത്തിയ കാസ്‌പെർസ്‌കി ബിസിനസ് ഡിജിറ്റൈസേഷൻ സർവേയിൽ 75 ശതമാനം യുഎഇ ജീവനക്കാരും തങ്ങൾക്ക് ഡീപ് ഫെയ്ക്ക് തിരിച്ചറിയാൻ കഴിയുമെന്ന് വിശ്വസിക്കുന്നുണ്ടെങ്കിലും 37 ശതമാനം പേർ മാത്രമാണ് പരിശോധനയ്ക്കിടെ യഥാർഥവും എഐ ജനറേറ്റുചെയ്‌തതുമായ ചിത്രങ്ങൾ തമ്മിൽ വേർതിരിച്ചറിയുന്നതിൽ വിജയിച്ചത്. 

English Summary:

Airtel's Sunil Mittal Exposes AI Voice Cloning Scam Attempt that Almost Defrauded Bharti Enterprises

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT