തിരഞ്ഞെടുപ്പിൽ എഐ ആയുധമാക്കാന് ചൈന; തായ്വാനിൽ 'ട്രയൽ റൺ', അടുത്ത ലക്ഷ്യം ഇന്ത്യ
Mail This Article
ഡീപ്ഫെയ്ക്, എഐ ഡാറ്റ വിശകലനം പോലുള്ള നിർമിത ബുദ്ധി സംവിധാനങ്ങൾ തിരഞ്ഞെടുപ്പുകളെ അട്ടിമറിക്കാൻ ശേഷിയുള്ളതാണെന്നുള്ള പ്രവചനം വളരെ നേരത്തെ പുറത്തു വന്നിരുന്നു. എന്നാൽ ഇതാ തായ്വാനിലെ പ്രസിഡന്റ് തിരഞ്ഞെടുപ്പിൽ ട്രയൽ റണിനുശേഷം ഇന്ത്യയിലെ പൊതു തിരഞ്ഞെടുപ്പ് തടസപ്പെടുത്താൻ ചൈന ഒരുങ്ങുന്നതായി മൈക്രോസോഫ്റ്റിന്റെ മുന്നറിയിപ്പ്. ചൈനീസ് ഭരണകൂട പിന്തുണയുള്ള സൈബർ ഗ്രൂപ്പുകളും ഉത്തര കൊറിയയിൽ നിന്നുള്ള സൈബർ ഗ്രൂപ്പുകളും 2024ൽ നടക്കാനിരിക്കുന്ന വിവിധ തിരഞ്ഞെടുപ്പുകളെ അവരുടെ എഐ ശേഷിയുടെ പരീക്ഷണശാലയാക്കാൻ ഉന്നം വയ്ക്കുകയാണ്.
പൊതുജനാഭിപ്രായം സ്വാധീനിക്കാനും അട്ടിമറിക്കാനും ചൈന എഐ വിഡിയോകളും ചിത്രങ്ങളും ഉപയോഗപ്പെടുത്തിയേക്കാമെന്നാണ് മൈക്രോസോഫ്റ്റ് പറയുന്നത്. സ്ഥാനാർത്ഥികളുടെ പ്രസ്താവനകൾ, വിവിധ വിഷയങ്ങളിലെ നിലപാടുകൾ, ചില സംഭവങ്ങളുടെ ആധികാരികത എന്നിവയെക്കുറിച്ചു പൊതുജനങ്ങൾക്കിടയിൽ ആശയക്കുഴപ്പം സൃഷ്ടിക്കുകയാണ് ഇത്തരം തന്ത്രങ്ങൾ ലക്ഷ്യമിടുന്നത്.
അതേസമയം ഗൂഗിൾ, ഡാറ്റ ലീഡ്സ് പോലെയുള്ള ടെക് കമ്പനികൾ സഹകരിച്ചു ഡിജിറ്റല് സംശുദ്ധമായ തിരഞ്ഞെടുപ്പെന്ന ലക്ഷ്യത്തോടെ Project SHAKTI പോലെയുള്ള പദ്ധതികൾ വ്യാജവാർത്തകളെ തിരിച്ചറിയുകയും റിപ്പോർട്ട് ചെയ്യുകയും ചെയ്യുന്നു. ഇന്ത്യയിലെമ്പാടുമുള്ള മാധ്യമങ്ങളും ഫാക്ട് ചെക്കർമാരും ഇതിൽ സഹകരിച്ചു പ്രവർത്തിക്കുന്നു. മനോരമ ഓൺലൈന്റെ ഫാക്ട് ചെക്ക് പേജ് കാണാം.
തിരഞ്ഞെടുപ്പിൽ സോഷ്യൽ മീഡിയയുടെ സ്വാധീനവും സ്വകാര്യ പോസ്റ്റുകളിൽ നിന്ന് ഖനനം ചെയ്ത ഡാറ്റ ഉപയോഗിച്ച് ഫെയ്സ്ബുക്ക് ഉപയോക്താക്കളുടെ കാഴ്ചപ്പാടുകളും അഭിപ്രായങ്ങളും കൈകാര്യം ചെയ്യാനുള്ള സാധ്യത കേംബ്രിഡ്ജ് അനലറ്റിക 2018ൽത്തന്നെ പുറത്തുകൊണ്ടുവന്നിരുന്നു.യുഎസ് തിരഞ്ഞെടുപ്പുമായി ബന്ധപ്പെട്ടു ധനസമാഹരണ ശ്രമങ്ങൾ മെച്ചപ്പെടുത്തുന്നതിനും ക്യാംപെയ്ൻ ഏകോപിപ്പിക്കുന്നതിനും ഈ ഡാറ്റ ഉപയോഗിച്ചു എന്നായിരുന്നു വിശകലനം. എന്നാൽ ഇപ്പോൾ സ്ഥിതി പതിന്മടങ്ങ് ഗുരുതരമാണ്.
ഇന്ത്യയുടെ ഇൻഫർമേഷൻ ടെക്നോളജി മന്ത്രി അശ്വിനി വൈഷ്ണവ്, ഡീപ്ഫെയ്ക്കുകളെ ജനാധിപത്യത്തിന് ഭീഷണി എന്നാണ് വിശേഷിപ്പിട്ടത്. പ്രധാനമന്ത്രി നരേന്ദ്ര മോദിയും ആശങ്കകൾ പങ്കുവച്ചിരുന്നു. ഇതേപോലെ എല്ലാ രാഷ്ട്രീയ പാർട്ടികളും സമൂഹമാധ്യമങ്ങളിൽ പെട്ടെന്ന് പൊട്ടിപ്പുറപ്പെടാൻ ഇടയുള്ള ഡീപ്ഫെയ്ക് ഭീഷണികളെ ഭയക്കുകയാണ്.
ഭീഷണി ഇങ്ങനെ
ഡാറ്റ വിശകലന മോഡലുകള്
മെഷീൻ ലേണിങ് സിസ്റ്റങ്ങൾക്ക് വലിയ ഡാറ്റ പ്രോസസ് ചെയ്ത് എങ്ങനെയായിരിക്കും പൊതുജന അഭിപ്രായമെന്നത് പ്രവചിക്കാനാകും. ഇതിനായി സമൂഹമാധ്യമങ്ങളിലെ അഭിപ്രായ പ്രകടനങ്ങളും വിവിധ വാർത്തകളോടുള്ള ആളുകളുടെ പ്രതികരണങ്ങളും എല്ലാം ഉപയോഗിക്കാനാകും.
ബോട്ടുകൾ
ചുവരെഴുതി ആക്ഷേപിക്കുന്ന കാലം കഴിഞ്ഞു, സോഷ്യൽ മീഡിയയിൽ പ്രചരണവും വ്യാജവാർത്തകളും പ്രചരിപ്പിക്കാൻ ബോട്ടുകളാണ് യഥാർഥ ഉപയോക്താക്കളെപ്പോലെ വേഷം മാറിയെത്തുക.
ഡീപ്ഫെയ്ക്
2017ൽ, പ്രശസ്തരായ ചില ഹോളിവുഡ് താരങ്ങളുടെ ദൃശ്യങ്ങൾ ഇത്തരത്തിൽ പുറത്തുവന്നതോടെയാണ് ഡീപ് ഫെയ്ക് വ്യാപകമായി ചർച്ചയായതു തന്നെ. ഒരു വ്യക്തിയുടെ ഏതാനും ചിത്രങ്ങൾ കയ്യിലുണ്ടെങ്കിൽ അവരെവച്ച് നിങ്ങൾക്കാവശ്യമുള്ള എന്തു വിഡിയോയും തയാറാക്കാമെന്ന അപകടമാണ് ഡീപ്ഫെയ്കിനുള്ളത്. ഡീപ് ഫെയ്ക് വിഡിയോകൾ സൃഷ്ടിക്കുകയും പ്രചരിപ്പിക്കുകയും ചെയ്യുന്നവർക്ക് ഒരു ലക്ഷം രൂപ പിഴയും മൂന്നു വർഷം തടവും ലഭിക്കുമെന്ന് കേന്ദ്രം അറിയിച്ചിരുന്നു.
യൂട്യൂബും ഡീപ്ഫെയ്കിനെ പേടിക്കുന്നു
വിഡിയോ നിർമിക്കുന്നവർ അപ്ലോഡ് ചെയ്യുമ്പോൾത്തന്നെ എഐയിൽ പൂർണമായി നിർമിച്ചതാണോ?, അല്ലെങ്കിൽ നിർമിത ബുദ്ധിയുടെ സഹായത്തോടെ മാറ്റം വരുത്തിയിട്ടുണ്ടോ എന്നുള്ള വിവരങ്ങൾ നൽകാൻ യൂട്യൂബ് ആവശ്യപ്പെടുകയാണ്. ഈ വിവരം യുട്യൂബ് കാഴ്ചക്കാരെ അറിയിക്കും. എഐ വിഡിയോകള് ലേബൽ ചെയ്യാനൊരുങ്ങുന്നത് യുട്യൂബ് ഡീപ്ഫെയ്ക് വിഡിയോകളെ പേടിക്കുന്നുണ്ടെന്നു വ്യക്തമാക്കിയിരുന്നു.