ADVERTISEMENT

ഡീപ്ഫെയ്ക്, എഐ ഡാറ്റ വിശകലനം പോലുള്ള നിർമിത ബുദ്ധി സംവിധാനങ്ങൾ തിരഞ്ഞെടുപ്പുകളെ അട്ടിമറിക്കാൻ ശേഷിയുള്ളതാണെന്നുള്ള പ്രവചനം വളരെ നേരത്തെ പുറത്തു വന്നിരുന്നു. എന്നാൽ ഇതാ തായ്​വാനിലെ പ്രസിഡന്റ് തിരഞ്ഞെടുപ്പിൽ ട്രയൽ റണിനുശേഷം ഇന്ത്യയിലെ പൊതു തിര​ഞ്ഞെടുപ്പ് തടസപ്പെടുത്താൻ ചൈന ഒരുങ്ങുന്നതായി മൈക്രോസോഫ്റ്റിന്റെ മുന്നറിയിപ്പ്. ചൈനീസ് ഭരണകൂട പിന്തുണയുള്ള സൈബർ ഗ്രൂപ്പുകളും ഉത്തര കൊറിയയിൽ നിന്നുള്ള സൈബർ ഗ്രൂപ്പുകളും 2024ൽ നടക്കാനിരിക്കുന്ന വിവിധ തിരഞ്ഞെടുപ്പുകളെ അവരുടെ എഐ ശേഷിയുടെ പരീക്ഷണശാലയാക്കാൻ ഉന്നം വയ്ക്കുകയാണ്.

പൊതുജനാഭിപ്രായം സ്വാധീനിക്കാനും അട്ടിമറിക്കാനും ചൈന എഐ വിഡിയോകളും ചിത്രങ്ങളും ഉപയോഗപ്പെടുത്തിയേക്കാമെന്നാണ് മൈക്രോസോഫ്റ്റ് പറയുന്നത്. സ്ഥാനാർത്ഥികളുടെ പ്രസ്താവനകൾ, വിവിധ വിഷയങ്ങളിലെ നിലപാടുകൾ, ചില സംഭവങ്ങളുടെ ആധികാരികത എന്നിവയെക്കുറിച്ചു പൊതുജനങ്ങൾക്കിടയിൽ ആശയക്കുഴപ്പം സൃഷ്ടിക്കുകയാണ് ഇത്തരം തന്ത്രങ്ങൾ ലക്ഷ്യമിടുന്നത്.

Diverse Team of Government Intelligence Agents Standing Around Digital Touch Screen Table and Satellite Tracking Suspect, Pointing at Display. Big Dark Surveillance Room.
Diverse Team of Government Intelligence Agents Standing Around Digital Touch Screen Table and Satellite Tracking Suspect, Pointing at Display. Big Dark Surveillance Room.Gorodenkoff/shutterstock

അതേസമയം ഗൂഗിൾ, ഡാറ്റ ലീഡ്സ് പോലെയുള്ള ടെക് കമ്പനികൾ സഹകരിച്ചു ഡിജിറ്റല്‍ സംശുദ്ധമായ തിരഞ്ഞെടുപ്പെന്ന ലക്ഷ്യത്തോടെ Project SHAKTI പോലെയുള്ള പദ്ധതികൾ വ്യാജവാർത്തകളെ തിരിച്ചറിയുകയും റിപ്പോർട്ട് ചെയ്യുകയും ചെയ്യുന്നു. ഇന്ത്യയിലെമ്പാടുമുള്ള മാധ്യമങ്ങളും ഫാക്ട് ചെക്കർമാരും ഇതിൽ സഹകരിച്ചു പ്രവർത്തിക്കുന്നു. മനോരമ ഓൺലൈന്റെ  ഫാക്ട് ചെക്ക് പേജ് കാണാം.

പ്രതീകാത്മക ചിത്രം (File Photo: REUTERS/Kacper Pempel/Illustration)
പ്രതീകാത്മക ചിത്രം (File Photo: REUTERS/Kacper Pempel/Illustration)

തിരഞ്ഞെടുപ്പിൽ സോഷ്യൽ മീഡിയയുടെ സ്വാധീനവും സ്വകാര്യ പോസ്റ്റുകളിൽ നിന്ന് ഖനനം ചെയ്ത ഡാറ്റ ഉപയോഗിച്ച് ഫെയ്സ്ബുക്ക് ഉപയോക്താക്കളുടെ കാഴ്ചപ്പാടുകളും അഭിപ്രായങ്ങളും കൈകാര്യം ചെയ്യാനുള്ള സാധ്യത കേംബ്രിഡ്ജ് അനലറ്റിക 2018ൽത്തന്നെ പുറത്തുകൊണ്ടുവന്നിരുന്നു.യുഎസ് തിരഞ്ഞെടുപ്പുമായി ബന്ധപ്പെട്ടു ധനസമാഹരണ ശ്രമങ്ങൾ മെച്ചപ്പെടുത്തുന്നതിനും ക്യാംപെയ്ൻ ഏകോപിപ്പിക്കുന്നതിനും ഈ ഡാറ്റ ഉപയോഗിച്ചു എന്നായിരുന്നു വിശകലനം. എന്നാൽ ഇപ്പോൾ സ്ഥിതി പതിന്മടങ്ങ് ഗുരുതരമാണ്.

ഇന്ത്യയുടെ ഇൻഫർമേഷൻ ടെക്നോളജി മന്ത്രി അശ്വിനി വൈഷ്ണവ്, ഡീപ്ഫെയ്ക്കുകളെ ജനാധിപത്യത്തിന് ഭീഷണി എന്നാണ് വിശേഷിപ്പിട്ടത്. പ്രധാനമന്ത്രി നരേന്ദ്ര മോദിയും ആശങ്കകൾ പങ്കുവച്ചിരുന്നു. ഇതേപോലെ എല്ലാ രാഷ്ട്രീയ പാർട്ടികളും സമൂഹമാധ്യമങ്ങളിൽ പെട്ടെന്ന് പൊട്ടിപ്പുറപ്പെടാൻ ഇടയുള്ള ഡീപ്ഫെയ്ക് ഭീഷണികളെ ഭയക്കുകയാണ്.

ഭീഷണി ഇങ്ങനെ

ഡാറ്റ വിശകലന മോഡലുകള്‍

മെഷീൻ ലേണിങ് സിസ്റ്റങ്ങൾക്ക് വലിയ ഡാറ്റ പ്രോസസ് ചെയ്ത് എങ്ങനെയായിരിക്കും പൊതുജന അഭിപ്രായമെന്നത് പ്രവചിക്കാനാകും. ഇതിനായി സമൂഹമാധ്യമങ്ങളിലെ അഭിപ്രായ പ്രകടനങ്ങളും വിവിധ വാർത്തകളോടുള്ള ആളുകളുടെ പ്രതികരണങ്ങളും എല്ലാം ഉപയോഗിക്കാനാകും.

ബോട്ടുകൾ

ചുവരെഴുതി ആക്ഷേപിക്കുന്ന കാലം കഴിഞ്ഞു, സോഷ്യൽ മീഡിയയിൽ പ്രചരണവും വ്യാജവാർത്തകളും പ്രചരിപ്പിക്കാൻ ബോട്ടുകളാണ് യഥാർഥ ഉപയോക്താക്കളെപ്പോലെ വേഷം മാറിയെത്തുക.

ഡീപ്ഫെയ്ക്

2017ൽ, പ്രശസ്തരായ ചില ഹോളിവുഡ് താരങ്ങളുടെ ദൃശ്യങ്ങൾ ഇത്തരത്തിൽ പുറത്തുവന്നതോടെയാണ് ഡീപ്‌ ഫെയ്ക് വ്യാപകമായി ചർച്ചയായതു തന്നെ. ഒരു വ്യക്തിയുടെ ഏതാനും ചിത്രങ്ങൾ കയ്യിലുണ്ടെങ്കിൽ അവരെവച്ച് നിങ്ങൾക്കാവശ്യമുള്ള എന്തു വിഡിയോയും തയാറാക്കാമെന്ന അപകടമാണ് ഡീപ്ഫെയ്കിനുള്ളത്. ഡീപ് ഫെയ്ക് വിഡിയോകൾ സൃഷ്ടിക്കുകയും പ്രചരിപ്പിക്കുകയും ചെയ്യുന്നവർക്ക് ഒരു ലക്ഷം രൂപ പിഴയും മൂന്നു വർഷം തടവും ലഭിക്കുമെന്ന് കേന്ദ്രം അറിയിച്ചിരുന്നു.

യൂട്യൂബും ഡീപ്ഫെയ്കിനെ പേടിക്കുന്നു

വിഡിയോ നിർമിക്കുന്നവർ അപ്​ലോഡ് ചെയ്യുമ്പോൾത്തന്നെ എഐയിൽ പൂർണമായി നിർമിച്ചതാണോ?, അല്ലെങ്കിൽ നിർമിത ബുദ്ധിയുടെ സഹായത്തോടെ മാറ്റം വരുത്തിയിട്ടുണ്ടോ എന്നുള്ള വിവരങ്ങൾ നൽകാൻ യൂട്യൂബ് ആവശ്യപ്പെടുകയാണ്. ഈ വിവരം യുട്യൂബ് കാഴ്ചക്കാരെ അറിയിക്കും. എഐ വിഡിയോകള്‍ ലേബൽ ചെയ്യാനൊരുങ്ങുന്നത് യുട്യൂബ് ഡീപ്ഫെയ്ക് വിഡിയോകളെ പേടിക്കുന്നുണ്ടെന്നു വ്യക്തമാക്കിയിരുന്നു.

ഇവിടെ പോസ്റ്റു ചെയ്യുന്ന അഭിപ്രായങ്ങൾ മലയാള മനോരമയുടേതല്ല. അഭിപ്രായങ്ങളുടെ പൂർണ ഉത്തരവാദിത്തം രചയിതാവിനായിരിക്കും. കേന്ദ്ര സർക്കാരിന്റെ ഐടി നയപ്രകാരം വ്യക്തി, സമുദായം, മതം, രാജ്യം എന്നിവയ്ക്കെതിരായി അധിക്ഷേപങ്ങളും അശ്ലീല പദപ്രയോഗങ്ങളും നടത്തുന്നത് ശിക്ഷാർഹമായ കുറ്റമാണ്. ഇത്തരം അഭിപ്രായ പ്രകടനത്തിന് നിയമനടപടി കൈക്കൊള്ളുന്നതാണ്.
തൽസമയ വാർത്തകൾക്ക് മലയാള മനോരമ മൊബൈൽ ആപ് ഡൗൺലോഡ് ചെയ്യൂ
അവശ്യസേവനങ്ങൾ കണ്ടെത്താനും ഹോം ഡെലിവറി  ലഭിക്കാനും സന്ദർശിക്കു www.quickerala.com