“ડીપ-ફેક” ટેકનોલોજી

ગદ્ય વિજ્ઞાન અને ટેકનોલોજી 4147

હવે એવું કહેવાનો કોઈ અર્થ નથી કે ટેકનોલોજી હંમેશા સારા ઉદ્દેશ્યથી જ અસ્તિત્વમાં આવી હોય છે, પરંતુ સમય સાથે એ ટેકનોલોજીના નકારાત્મક અને વધુ સ્પષ્ટ ભાષામાં કહીએ તો ભાંગફોડીયા ઉપયોગો શોધી કાઢવામાં આવતા હોય છે. દુનિયાની દરેક ટેકનોલોજી સાથે આ છેડછાડ થઈ જ ચૂકી છે. હથિયારોની નિર્માણ સરકાર પ્રજાનું રક્ષણ કરી શકે એ માટે જ થયેલું પણ આજે હથિયાર જોઇને સલામતી નહી પણ ડર જ અનુભવાય છે. કમ્પ્યુટર અને ઇન્ટરનેટ જેવી ટેકનોલોજી આપણા કામને આસન બનાવી આપણો સમય બચાવવા થયેલ; પરંતુ આજે આ જ બન્ને ટેકનોલોજીએ આપણી વ્યક્તિગત આઝાદીને ગીરવે મૂકી દીધી છે અને કમ્પ્યુટર અને ઈન્ટરનેટના લીધે આજે આપણો સૌથી વધુ સમય બગડે છે, એમ કહેવું જરા પણ ખોટું નહી કહેવાય.

આવી એક ટેકનોલોજી એટલે ફોટો એડીટીંગ! શરૂઆતમાં કેમેરા અસ્તિત્વમાં આવ્યા ત્યારે ફોટો-સેન્સીટીવ રોલ પર ફોટોની ‘નેગેટીવ’ આવૃત્તિ ઝીલવામાં આવતી અને ત્યાર બાદ એક ડાર્ક રૂમમાં આ નેગેટીવને ડેવેલોપ કરી કાગળ પર ફોટો તરીકે છાપવામાં આવતી. ફોટો લેવાથી લઈને કાગળ પર છાપવા સુધીની પ્રક્રિયામાં ક્યાંય કમ્પ્યુટરની જરૂર ના પડતી એટલે એમ કહી શકાય કે એ ટેકનોલોજી નોન-ડીઝીટલ હતી. નોન-ડીઝીટલ ટેકનોલોજીમાં સુધારા-વધારાના અવકાશ નહિવત હોય છે. વળી એ ટેકનોલોજી ખર્ચાળ પણ હતી. એક તો ફોટો-ફિલ્મના રોલની સારી એવી કિંમત ચૂકવવી પડતી અને ત્યાર બાદ એ ફિલ્મમાંથી ફોટો ડેવેલોપ કરવા માટે ખાસ બનાવટના ડાર્ક રૂમ અને અમુક કેમીકલ્સની જરૂર પડતી. એટલે ટેકનોલોજી ખર્ચાળ સાથે થોડી અઘરી પણ હતી. માત્ર એ કામના અનુભવી જ ફોટો ડેવલોપમેન્ટનું કામ કરી શકતા.

ત્યાર બાદ સી.સી.ડી. (ચાર્જ્ડ ક્પલ્ડ ડીવાઇસ)ની શોધ થઈ અને ફોટો-રોલવાળા કેમેરાનો યુગ કાયમ માટે આથમી ગયો. આજે ડીઝીટલ ટેકનોલોજી ધરાવતા કેમેરામા બસ્સો રૂપિયાની કીંમતના મેમરી કાર્ડમાં હજારની ગણતરીમાં ફોટોઝ લઈ શકાય અને કોઈ ફોટો ના ગમે તો એ ડીલીટ કરી, જગ્યા ખાલી  કરી નવો ફોટો લઇ શકાય. ફોટો-રોલ ધરાવતા કેમેરામા એવું શક્ય નહોતું. એકવાર લીધેલ ફોટો કાયમી બનતો એટલે દરેક ફોટોની કિંમતનો ખ્યાલ રાખી એ ખર્ચ કરવામાં આવતો. પણ ડીઝીટલ ટેકનોલોજીએ કિંમતમાં જે ઘટાડો કર્યો એ કોઈ મોટી ક્રાંતિ નહોતી પણ એ પછી ફોટો એડીટીંગનો જે બીઝનેસ શરુ થયો એ ચોક્કસ ક્રાંતિ કહી શકાય. ફોટોશોપ જેવા સોફ્ટવેર ફોટો એડીટીંગના પર્યાય બન્યા અને ગમે તેમ લીધેલા ફોટોમાં જરૂરી સુધારા વધારા કરીને મનપસંદ રીઝલ્ટ મેળવી શકવાનું આસન બન્યું. અને ક્યાંક ફોટોને એડિટ કરીને કોઈને ફસાવવા અને બદનામ કરવાના કામો પણ શરુ થયા કેમ કે ફોટો પાડવો સસ્તો અને સરળ બન્યો અને એડિટ કરવો પણ સસ્તો અને સરળ બન્યો. પણ અહીં સુધીની વાતને માત્ર પ્રસ્તાવના કહી શકાય એવી વાત હવે કરવી છે.

આ વાત છે એક એવી ટેકનોલજીની જે આર્ટીફીશીયલ ઈન્ટેલીજન્સનો જ એક ભાગ છે પણ આજકલ કમ્પ્યુટર ટેકનોલોજીએ એને એકદમ સરળ બનાવી દીધું છે. અને હવે એ ખતરનાક પણ બની ગયું છે એમ કહી શકાય. આખી વાતને ધ્યાનથી સમજીએ. વાત છે “ડીપ ફેક” ટેકનોલોજીની. અત્યાર સુધી ફોટો એડીટીંગ અને વિડીયો એડીટીંગની વાત હતી પણ હવે વાત થાય છે વીડિયોના સર્જનની! અને એ પણ કોઈ એનીમેટેડ વિડીયો નહી, આ ટેકનોલોજીની મદદથી તમે કોઇપણ વ્યક્તિના મોઢેથી ધારો તે બોલાવી શકો!

ટેકનોલોજીની ભાષામાં ઓગમેન્ટેડ રીઆલીટી કરતા પણ આગળનું સ્ટેપ છે પણ આપણો હેતુ અહીં એ ટેકનીકલ ચર્ચાને બિલકુલ બાજુમાં રાખી ખરેખર શું બને છે એ સમજવાનો છે. આ ટેકનોલોજીની મદદથી તમે ડોનાલ્ડ ટ્રમ્પના મોઢેથી એના જ અવાજમાં “વૈષ્ણવજન તો તેને કહીએ જે પીડ પરાઈ જાણે રે!” બોલાવડાવી શકો અને આખરે બનતો વિડીયો સાચો જ લાગે. માત્ર ફોરેન્સિક સાયન્ટીસ્ટ એને ફેક/ખોટો સાબિત કરી શકે. હવે આ કઈ રીતે થાય છે એ સમજીએ. તો આ ઉદાહરણને ધ્યાનમાં રાખીને હવે પછીનું લખાણ વાંચો.

સૌપ્રથમ તો આપણે આપણા ઉદાહરણ મુજબ ડોનાલ્ડ ટ્રમ્પના શક્ય એટલા ભાષણના વિડીયો “ડીપ ફેક”ના સોફ્ટવેરને એનાલીસી માટે આપી દેવાના રહશે. આ સોફ્ટવેર એ દરેક વિડિયોનું ‘અવલોકન’ કરશે. આ અવલોકન એટલે કે એનાલીસીસમા ઘણી બાબતો હોય શકે જેમ કે ડોનાલ્ડ ટ્રમ્પ બે શબ્દો અને બે વાક્યો વચ્ચે કેટલો વિરામ લે છે. કેવા શબ્દો વખતે હોઠ કઈ રીતે વળાંકો લે છે અને ગાલ પર ક્યાં કરચલીઓ પડે છે. કેવા શબ્દો કે વાક્યો વખતે હાથ બતાવીને વાત કરે છે, ભાષણ આપતી વખતે હાથ કેવી હરકતો કરે છે – એ દરેક વાતનું એનાલીસીસ થશે.

આટલું થયા પછી આ કમ્પ્યુટર સોફ્ટવેર પાસે ડોનાલ્ડ ટ્રમ્પના ભાષણ માટે શબ્દો સિવાયની દરેક માહિતી છે. જેમ કે કયો શબ્દ કેવી રીતે બોલવો, એ શબ્દ વખતે ચહેરા પર કેવો હાવ-ભાવ હશે વગેરે. હવે પછીના સ્ટેજમાં આપણે આ સોફ્ટવેરને શબ્દો આપી દેવાના છે. આના માટે ખાસ કશું કરવાનું રહેતું નથી. ડોનાલ્ડ ટ્રમ્પની મિમિક્રી કરી શકે એવા એક વ્યક્તિ પાસે “વૈષ્ણવજન તો તેને કહીએ જે પીડ પરાઈ જાણે રે!” શબ્દો બોલાવડાવી લો અને એ વ્યક્તિની વિડીયો ફૂટેજ ડીપ ફેક માટે વપરાતા સોફ્ટવેરના હવાલે કરી દો એટલે બાકીનું કામ સોફ્ટવેર સાંભળી લેશે. અને ત્યાર બાદ એ વિડીયોને આધાર બનાવી અને ડોનાલ્ડ ટ્રમ્પના જુના વીડિયોના ડેટાનો આધાર લઈ એક નવો જ વિડીયો બનશે જેમાં અવાજ, હાવભાવ અને બીજા લક્ષણો ડોનાલ્ડ ટ્રમ્પના જ લાગશે, પણ ખરેખર એવું હશે નહી.

નવસો શબ્દોના આર્ટીકલમાં આખી વાત સમજાવવી મુશ્કેલ છે અને સાચું કહીએ તો આ વાંચીને સમજી શકાય એવી વાત પણ નથી. એમ છતાં અમુક ઉદાહરણો આ વાતને સુપાચ્ય બનાવી શકાય એમ છે. વધારે નહી તો આવી ટેકનોલોજી કેવી હાલત સર્જી શકે એ જરૂર સમજી શકાય. ધારો કે કી “અ” વ્યક્તિ “બ” વ્યક્તિને બદનામ કરવા માંગે છે તો એ આવા સોફ્ટવેરનો ઉપયોગ કરીને કોઇપણ વાંધાજનક શબ્દો બોલીને આજના સોશિયલ મીડિયાના જમાનામાં પોતાની મેલી મુરાદ પાર પાડી શકે છે. ચોક્કસપણે આવા વિડીયોને ખોટા સાબિત કરી શકાય છે પણ એના માટે સમય અને ફોરેન્સિક ટેકનોલોજી બન્ને જોઈએ અને આ બધું થઇ શકે એ દરમિયાન ઘણું બધું નુકસાન થઇ શક્યું હોય એ સંભવ છે. ખાસ કરીને આપણા જેવા દેશ માટે કે જ્યાં લોકોની ભીડ માત્ર એક સાધારણ વોટ્સએપ મેસેજ વાંચીને કોઈ વ્યક્તિને મારી નાખવાની હદ સુધી પહોંચી જતી હોય એવા દેશમાં આવી ટેકનોલોજી જો હાથવગી બની જાય તો કલ્પના બહારનું નુકશાન થઇ શકે. હાલ આવી ટેકનોલોજીથી પોર્ન વીડિયોના ફેક સ્કેન્ડલ બનવાના કિસ્સા સામે આવવા લાગ્યા છે.

બની શકે કે ઉપરની વાતોમાં ઊંડાણથી વાત ના સમજી શકાય હોય તો હું માત્ર તમને યુટ્યુબ પર માત્ર ૭૨ સેકન્ડનો વિડીયો જોઈ લેવાનું કહીશ. આ લીંક પર આપ વિડીયો જોઈ શકો છો. https://youtu.be/cQ54GDm1eL0

Vipul Hadiya (વિપુલ હડિયા)

Vipul Hadiya (વિપુલ હડિયા)

Made with by cridos.tech