છેતરપીંડીથી જીતવું એ ચૂંટણીના યુદ્ધમાં રાજધર્મ નેવે મુકવા જેવી વાત છે. રાજકારણમાં સફેદ વસ્ત્રોધારી લોકોમાં ધર્મ શોધવો અઘરો હોય છે પણ તેની શક્યતા પણ જતી કરવાની ચૂક એક લોકશાહી રાષ્ટ્રને પોસાય તેમ નથી
એક સમયે જે બાબતો કલ્પના બહારની હતી તે આજે વાસ્તવિક્તા બની છે. જે હોય છે એ દેખાતું નથી અને જે દેખાય છે એ હોતું નથી – આ વાક્ય તર્ક વગરનું લાગતું હોય તો પણ સાવ નકારી કાઢવા જેવું તો નથી જ. ધારો કે તમને કોઇ એવો વીડિયો મોકલે જેમાં રાહુલ ગાંધી એમ કહેતા હોય કે તેમને રાજકારણમાં રસ છે જ નહીં અને તેમણે આ વાત નરેન્દ્ર મોદીને કરી છે, અથવા તો એમ વીડિયો આવે જેમાં નરેન્દ્ર મોદી એમ કહેતા હોય કે, ખરેખર કાઁગ્રેસ પાર્ટી, ભા.જ.પા. કરતાં કંઇક ગણી સારી પાર્ટી છે – તો તમે ચોંકી જવાના અને બીજા પાંચસો-પચાસ જણાને એ વીડિયો મોકલી જ આપવાના, બરાબરને! આ બન્ને ઉદાહરણો અંતિમવાદી છે, એમાં કોઇ જ તર્ક નથી પણ જો એ આર્ટિફિશ્યલ ઇન્ટેલિજન્સ – AI-થી બનેલો ડીપફેક વીડિયો હશે તો જ્યાં સુધી તેની ચોખવટ ન થાય ત્યાં સુધી તો એ લોકોના ફોનમાં પહોંચવાનો જ છે. આ વાત કોઇને વેતાં વગરની લાગી શકે છે, પણ વિશ્વના સૌથી મોટાં લોકશાહી રાષ્ટ્રોની યાદીમાં જ્યારે આપણું નામ હોય, આપણે ત્યાં જોર-શોરથી ચૂંટણી થવાની હોય ત્યારે મતદાતાઓને માથે ખોટા, નકલી ચૂંટણી પ્રચારનો મારો થવાની શક્યતાઓ કોઇ કાળે નકારી શકાય એમ નથી.
યુદ્ધ અને રાજકારણમાં બીજી બધી ચીજોની સાથે જો નિકંદન નીકળતું હોય તો એ છે સત્યનું અને હવે તો રાજકીય હકીકતોનું સ્વરૂપ પૂરી રીતે બદલી નાખી એને પોતાને ગમતું સત્ય બનાવી નાખવાનું શસ્ત્ર સાવ હાથવગું છે. જનરેટિવ AIની મદદથી કોઇપણ ઉમેદવારનો અવાજ, ચહેરો બનાવવા તો સહેલા છે જ પણ ફાવે એવુ ‘નેરેટિવ’ – ‘ગમે’ એવી અને ‘ગમે’ તેવી વાર્તાઓ રચીને વિરોધ પક્ષને નીચા બતાડવાના કાવતરાં થઇ જ શકે છે. આવું યુ.એસ.એ.માં તો રાજકારણીઓના ચહેરા-અવાજનો ઉપયોગ કરીને થવા પણ માંડ્યું છે. ડીપફેક વીડિયો એક શસ્ત્ર છે તો બીજી બાબત જે તેના કરતાં વધુ જોખમી છે એ છે ડીપફેક ઑડિયો. કોઇપણ રાજકીય નેતાના અવાજની અદ્દલ નકલ થઇ શકે છે એને જે પણ વીડિયો વિઝ્યુઅલ હોય તેની પર એ ફેક ઓડિયો લગાડી દઇ શકાય છે. સોશ્યલ મીડિયા પર તો વડા પ્રધાનના અને અન્ય રાજકારણીઓના અવાજ જનરેટ કરીને મીમ્સ ક્યારનાં ય ફરે છે. તેને બનાવનારા એમ ચોખવટ પણ કરે છે કે આ ફેક વીડિયોઝ છે, તેમાં ફૂટેજ પર વપરાયેલો અવાજ મૂળ વ્યક્તિનો નથી અને માત્ર મનોરંજન માટે બનાવાયેલો છે. પરંતુ ખેપાનીઓ આમાં તક શોધીને પોતાનું ધાર્યું કરતાં એક ક્ષણનો પણ વિચાર નથી કરવાના.
ચૂંટણીની લોકશાહી પ્રક્રિયામાં AI જનરેટેડ મટિરિયલની માયાજાળમાં ફસાઇને ગેરમાર્ગે દોરાઇ જનારા લોકોની સંખ્ય નાનીસૂની નહીં હોય – આ એક ન ગમતી હકીકત છે. જાણીતા, વિશ્વાસુ નામોના ચહેરા અને અવાજનો ઉપયોગ કરીને ચૂંટણી પ્રચાર કરવો કોઇ નવી બાબત નથી, પણ આ પ્રખ્યાત વ્યક્તિ, નામી પ્રતિભાએ પોતાનો અભિપ્રાય ન આપ્યો હોય છતાં પણ જો તેમના અવાજ કે ચહેરાનો ઉપયોગ કરીને કોઇ સંદેશ આમ જનતા સુધી પહોંચાડી દેવામાં આવે તો આ મામલે આગળ કંઇ ન થઇ શકે. હા, એ વ્યક્તિ આગળ આવે, આ બાબતને પડકારે, હકીકત બહાર આવે ત્યાં સુધીમાં તો જે નુકસાન થવાનું હતું તે થઇ ગયું હોય. આપણે ત્યાં ચૂંટણી માથે છે ત્યારે આ સદંતર બોગસ બાબતો ખાસ કરીને વિરોધી પ્રચાર માટે વપરાઇ જ શકે છે. ડીપફેકના જોખમને હળવાશથી લેવા જેવું નથી. રાજકારણીઓ અને રાજકીય પક્ષો જે જનરેટિવ AIનો ઉપયોગ કરે છે તેમને ખબર છે કે વિરોધીઓને હડફેટે લેવાના હોય તે ચાલાકીથી બનાવાયેલી બોગસ સામગ્રીને ઓનલાઇન વાઇરલ કરવામાં જરા ય વાર નથી લાગતી. સ્વાભાવિક છે કે ચૂંટણી પંચ પાસે અત્યારે તો ડીપફેક અથવા AI વાપરીને બનાવાઇ હોય એવી સામગ્રીનો ઉપયોગ થાય ત્યારે તેની સામે પગલાં લેવાની કોઇ જોગવાઇ નથી, તેને લગતા કોઇ નક્કર નિયમો નથી. ડીપફેકનો ઉપયોગ ચૂંટણી પ્રચાર માટે ન કરવો એમ કહેતા કોઇ કાયદા પણ નથી. સદ્દનસીબે તાજેતરમાં અમુક ફિલ્મી ચહેરાઓના ડીપફેક માર્કેટમાં ફરતા થયા અને ફરિયાદો થઇ એટલે સરકારે AI ટેક્નોલોજી માટેની નીતિઓ પર તપાસ કરવાનું શરૂ કરી દીધું છે.
વળી અહીં માત્ર રાજકારણીઓ કે અભિનેતાઓની વાત નથી. ધારો કે જેના હજારો લાખો અનુયાયીઓ હોય એવા કોઇ ધર્મગુરુ કે આધ્યાત્મિક વક્તાનો વીડિયો ફરતો થાય જેમાં તે કોઇ ચોક્કસ રાજકારણીને સમર્થન આપતા હોવાની વાત હોય એટલે તેમના ભક્તો તો ચોક્કસ તેમની વાતને ગંભીરતાથી લેવાના છે. આવું કોન્ટેન્ડ એકવાર ફરતું થાય એટલે તેને રોકવાનું, તે ખોટું છે તે બહાર લાવવાનું એ બધું જ અઘરું છે. હકીકત બહાર આવે ત્યાં સુધીમાં તો પ્રચાર થઇ ગયો હોય અને વાતનું ફીંડલું વળી ગયું હોય. આધ્યાત્મિક કોન્ટેન્ટ સોશ્યલ મીડિયા પર બહુ ઝડપથી શૅર થતું હોય છે અને આવા ડીપફેક્સની અસરનો સામનો કરવો સહેલો નથી. રાજકારણમાં પ્રચાર હવે એજન્સીઝના હાથમાં હોય છે. આવી એજન્સીઝ AIનો ઉપોયગ ટાળવાની જ સલાહ આપે છે પણ ઓનલાઇન ટ્રોલર્સ કે બહારના લોકો જે પોતાના હિત માટે આ બધા સંસાધનોનો ઉપયોગ કરવા માગતા હોય તેમને કોઇ નથી રોકી શકવાનું. અધિકૃત માહિતી અને AI-જનરેટેડે બોગસ સામગ્રી વચ્ચેની પરખ અને ઓળખ કરવાનું મતદારો માટે મુશ્કેલ હશે. AIના જોખમોને હળવાશે લેવાય એવા નથી. અફવાઓનું બજાર ગરમ કરવાથી માંડીને, ચારિત્ર હનન, સતત ખોટા નેરેટિવનો મારો, ચોક્કસ મત વિસ્તારોને ધ્યાનમાં લઇને ત્યાં જે પ્રચારની અનિવાર્યતા છે તેને લગતી સાચી-ખોટી માહિતી પ્રસરાવાથી માંડીને બીજું ઘણું બધું AIથી જનરેટ કરી શકાશે. આપણે ત્યાં ગામડાંઓમાં ઇન્ટરનેટ છે પણ શું ત્યાંના લોકોને ડીપફેક અને અધિકૃત માહિતીનો ફેર ખબર હશે, તેઓ એ જાણવાની તસ્દી પણ લેશે? જેનો ભોગ લેવાતો હોય, જેમની પર આવી ડીપફેક માહિતીનો મારો થતો હોય તેમને તો કદાચ એ કલ્પના પણ નહીં હોય કે તે જે જુએ છે એ સાચું નથી. AIની મદદથી છેડાયેલી એક જ ચર્ચાના હજારો સ્વરૂપ અને વર્ઝન હોય એમ બની જ શકે છે અને આખી કામગીરી બૉટ્સથી થતી હોય અને યૂઝર્સને એટલે કે તેના દર્શકો કે શ્રોતાઓને તેને વિશે ખબર પણ ન પડે એમ થાય ત્યારે મતદારોના ઝૂકાવ પર પણ તેની સીધી અસર થઇ જ શકે છે. બૉટ્સનું તો ડોન જેવું હોય છે, તેમને પકડવા મુશ્કેલ નહીં પણ અશક્ય હોય છે.
AIની મદદથી સોશ્યલ મીડિયા અને ઓનલાઇન ડેટાનું વિશ્લેષણ ચપટી વગાડતાં થઇ શકે છે એટલે રાજકારણીઓ અને વિવિધ પક્ષોને મતદારોની પસંદગીઓથી માંડીને તેમના વિરોધીઓ વિશે જરૂર કરતાં વધુ માહિતી મળી શકશે અને પછી તેના ચાલાકીથી ઉપયોગ કરવા અથવા સામે વાળાને ચૂપ કરી દેવાની બધી તરકીબો અજમાવામાં આપણા રાજકારણીઓ પાછું વળીને નહીં જુએ. વળી AIના વિશ્લેષણને પગલે રાજકારણીઓ પોતાના કેમ્પેઇન્સ પણ એ રીતે પ્લાન કરી શકશે જેનાથી તેઓ મતદારોના ઝૂકાવનું વહેણ બદલી શકે, પોતાના એજન્ડાને અનુરૂપ મહત્તમ સમર્થન મેળવી શકે.
ડીપફેકના જોખમ ઘટાડવા માટે ચૂંટણી દરમિયાન તેના ઉપયોગ પર પ્રતિબંધ લાગુ કરવો, મતદારોને જાગૃત કરવા, AI-જનરેટેડ સામગ્રી ન વપરાય તેવી નીતિઓનું અમલીકરણ કરવું, સાયબર સુરક્ષા અને ફેક્ટ ચેકિંગની કડક જોગવાઇઓ લાગુ કરવી, રાજકીય પ્રચારની પારદર્શિતા ફરજિયાત બનાવવી વગેરે ચૂંટણીમાં અનિવાર્ય એવી ડિજીટલ સાક્ષરતા છે. આપણે ત્યાં થનારી ચૂંટણીમાં આ ડીપફેકના પડકારને કેટલી ગંભીરતાથી સંબોધિત કરાય છે તે જ આપણી ચૂંટણીના પરિણામો અને તેના ભવિષ્યને આકાર આપશે એમ કહેવામાં કંઇ ખોટું નથી. આમ જનતાની સમજનું સશક્તિકરણ થશે તો જ ચેડાં કરાયેલી માહિતી ઉઘાડી પડશે.
વાત માત્ર ભારતની નથી પણ ન્યુઝીલેન્ડ, ટર્કી, આર્જેન્ટીનામાં ડીપફેક તસવીરો અને વીડિયોએ ચૂંટણી પ્રચારમાં દેકારો મચાવ્યો જ હતો. બાંગ્લાદેશમાં પણ વિરોધ પક્ષની મહિલા નેતાઓના બિકીની ડીપફેક વીડિયોઝ વાઇરલ થઇ ચૂક્યા છે. પાકિસ્તાનમાં પણ ચૂંટણીની રેલીમાં AI જનરેટેડ તસવીરો અને ઓનલાઇન ચૂંટણીના ફેક વીડિયોએ ચકચાર મચાવી હતી. 2023માં 5 લાખ જેટલા AI જનરેટેડ વીડિયોઝ અને વોઇસ ડીપફેક સોશ્યલ મીડિયા પર ફરતા થયા છે. બાંગ્લાદેશ, ભારત અને ઇન્ડોનેશિયામાં આ છેતરામણી રોકવાના કાયદા પસાર કરાયા છે પણ સોશ્યલ મીડિયાના ટેકજાયન્ટ્સને પૈસા કમાવામાં રસ છે એટલે ત્યાં સતર્કતાને નામે કેટલી તકેદારી રખાશે તે કહેવું અઘરું છે.
બાય ધી વેઃ
લોકશાહી રાષ્ટ્ર તરીકે AIના લાભ ગુમાવવાની નહીં પણ તેના નુકસાનની સંભાવના ઓછી કરવાની વાત છે. ડીફ ફેક્સ ચૂંટણીની અખંડિતતાને નબળી પાડે એવું જોખમ હોય ત્યારે તકેદારીમાં જ સમજદારી છે એ યાદ રાખવી જરૂરી છે. AI યુગમાં લોકશાહીને નબળી પાડવામાં AI જો મેદાન મારી જશે તે પછી લોકશાહી શાસન પર લોકોને વિશ્વાસ કેવી રીતે ટકશે? આ સવાલનો જવાબ એ દરેક વ્યક્તિએ શોધવો રહ્યો જે મતાધિકાર, લોકશાહી, સ્વતંત્રતાનું મૂલ્ય સમજતી હોય. છેતરપીંડીથી જીતવું એ ચૂંટણીના યુદ્ધમાં રાજધર્મ નેવે મુકવા જેવી વાત છે. રાજકારણમાં સફેદ વસ્ત્રોધારી લોકોમાં ધર્મ શોધવો અઘરો હોય છે પણ તેની શક્યતા પણ જતી કરવાની ચૂક એક લોકશાહી રાષ્ટ્રને પોસાય તેમ નથી.
પ્રગટ : ‘બહુશ્રૃત’ નામક લેખિકાની સાપ્તાહિક કટાર, ’રવિવારીય પૂર્તિ’, “ગુજરાતમિત્ર”, 07 જાન્યુઆરી 2024