Deepfake Technology – டீப்ஃபேக் தொழில்நுட்பம் என்றால் என்ன?
பொருளடக்கம்
பொருளடக்கம்
அறிமுகம்
பராக் ஒபாமா, டொனால்ட் டிரம்பை “முழுமையான டிப்ஷிட் (dipshit)” என்று அழைப்பதை நீங்கள் பார்த்திருக்கிறீர்களா? அல்லது,
மார்க் ஜுக்கர்பெர்க் “பில்லியன் கணக்கான மக்களின் திருடப்பட்ட தரவுகள் மொத்தமும் தம் கட்டுப்பாட்டில்” இருப்பதைப் பற்றி தற்பெருமை பேசுவதைப் பார்த்தீர்களா? அல்லது,
கேம் ஆஃப் த்ரோன்ஸின் மோசமான முடிவுக்கு ஜான் ஸ்னோ மன்னிப்புக் கேட்டதைக் கண்டீர்களா? ஆம் என்று பதிலளித்தால், நீங்கள் ஒரு டீப்ஃபேக்கைப் பார்த்திருக்கின்றீர்கள்.
புகைப்படங்களுக்கு ஃபோட்டோஷாப் என்றால் 21 ஆம் நூற்றாண்டில் புகைப்படம் மற்றும் வீடியோக்களுக்கு டீப்ஃபேக்.
டீப்ஃபேக்குகள் போலி நிகழ்வுகளின் புகைப்படங்களை உருவாக்க செயற்கை நுண்ணறிவின் (Artificial Intelligence) ஒரு வடிவத்தைப் பயன்படுத்துகின்றன, இதுவே டீப்ஃபேக் என்று அழைக்கப்படுகின்றது.
ஒரு அரசியல்வாதியின் வாயில் புதிய வார்த்தைகளை வரவைக்க வேண்டுமா? உங்களுக்குப் பிடித்த திரைப்படத்தில் நீங்களே நடிக்க வேண்டுமா? அல்லது தேர்ந்த கலைஞன் போல ஆட வேண்டுமா? அப்படியானால் உங்களுக்கு ஒரு டீப்ஃபேக்கை உருவாக்க வேண்டிய நேரம் இதுதான்.
எதற்காக அவை?
டீப்ஃபேக்குகள் அதிகமானவை ஆபாசமானவை தான். AI நிறுவனமான டீப்ட்ரேஸ் Deeptrace செப்டம்பர் 2019 இல் ஆன்லைனில் 15,000 டீப்ஃபேக் தொழில்நுட்ப (Deepfake Technology) வீடியோக்களைக் கண்டறிந்தது.
இது ஒன்பது மாதங்களில் இரட்டிப்பானது. இதில் அதிர்ச்சியூட்டும் செய்தி 96% சதவிகிதம் ஆபாசப் படங்கள் மேலும் அதில் 99% சதவிகிதம் பெண் பிரபலங்கள் முதல் ஆபாச நட்சத்திரங்கள் வரை மேப் செய்யப்பட்ட முகங்கள்.
புதிய நுட்பங்கள், திறமையற்றவர்களை கூட ஒரு சில புகைப்படங்களுடன் டீப்ஃபேக்குகளை உருவாக்க அனுமதிப்பதால், கீழ்த்தரமாக ஏதாவது செய்து பழிவாங்க வேண்டும் என்ற நோக்கத்தோடு இணையத்தில் உலவுபவர்களுக்கு இது ஒரு வரப்பிரசாதமாக அமைந்துள்ளது.
அது போன்ற கேவலமானவர்களின் கைகளில் இவை சிக்கும் போது டீப்ஃபேக் ஆபாசப்படங்கள் மற்றும் வீடியோக்கள் என இன்னும் அதிகமாக பரவ வாய்ப்புள்ளது.
பாஸ்டன் பல்கலைக்கழகத்தின் சட்டப் பேராசிரியரான டேனியல் சிட்ரான் கூறுகின்றார் “பெண்களுக்கு எதிராக, டீப்ஃபேக் தொழில்நுட்பம் ஆயுதமாக்கப்படுகிறது.” ஆபாசத்திற்கு அப்பால் ஏராளமான ஏமாற்று நடவடிக்கை, கிண்டலடிக்கவும் மற்றும் குறும்புத்தனங்களை உறுவாக்கவும் பயன்படுவதாக கூறுகின்றார்.
Deepfake Technology இது வெறும் வீடியோக்களைப் பற்றியதா?
இல்லை. டீப்ஃபேக் தொழில்நுட்பமானது நம்பிக்கைக்குரிய ஆனால் முற்றிலும் கற்பனையான புகைப்படங்களை புதிதாக உருவாக்க முடியும்.
லிங்க்ட்இன் LinkedIn மற்றும் ட்விட்டரில் Twitter சுயவிவரத்தைக் கொண்டிருந்த “மைஸி கின்ஸ்லி” என்ற ப்ளூம்பெர்க் பத்திரிகையாளர் ஒரு போலியான டீப்ஃபேக் தொழில்நுட்பம், மற்றொரு லிங்க்ட்இன் LinkedIn போலியான, “கேட்டி ஜோன்ஸ்”, சர்வதேச ஆய்வுகளுக்கான மையத்தில் பணிபுரிவதாகக் கூறினார், ஆனால் வெளிநாட்டு உளவு நடவடிக்கைக்காக உருவாக்கப்பட்ட டீப்ஃபேக் என்று தெரியவருகின்றது.
பப்ளிக் ஃபிகர்ஸ் என்று சொல்லக்கூடிய பிரபலமான நபர்களின் “குரல்கள்” அல்லது “குரல் குளோன் ஆடியோவையும் டீப்ஃபேக்கில் உருவாக்கலாம்.
கடந்த மார்ச் மாதம், ஃபிராடு ஒருவன் ஜெர்மன் தலைமை நிர்வாக அதிகாரியைப்போல ஜேர்மன் எரிசக்தி நிறுவனத்தின் UK துணை நிறுவனத்தின் தலைவரிடம் பேசி கிட்டத்தட்ட £200,000 ஐ ஹங்கேரிய வங்கிக் கணக்கில் மாற்றப்பட்டதும் இந்த டீப்ஃபேக் தொழில்நுட்பம் தான்.
இன்ஸூரன்ஸ் அதிகாரிகள், பேசியது ஜெர்மன் தலைமை அதிகாரி அல்ல, அவர்போல பேச வாட்ஸ்அப் வாய்ஸ் மெசேஜை பயன்படுத்தி டீப்ஃபேக் தொழில்நுட்பத்தால் (Deepfake Technology) உருவாக்கப்பட்ட குரல் என்று தெரிவிக்கின்றனர்.
அவை எவ்வாறு தயாரிக்கப்படுகின்றன?
பல்கலைக்கழக ஆராய்ச்சியாளர்கள் மற்றும் ஸ்பெஷல் எஃபெக்ட்ஸ் ஸ்டுடியோக்கள் நீண்ட காலமாக வீடியோ மற்றும் புகைப்படங்களை கையாளுதல் மூலம் சாத்தியமான உட்சபட்ச எல்லைவரை சென்றனர்.
அந்த சமயத்தில் 2017 ஆம் ஆண்டில் ஒரு ரெடிட் Reddit பயனர் ஒருவர் ஒரு மருத்துவரின் ஆபாச வீடியோக்களை தனது தளத்தில் வெளியிட்டார். இதுவே முதல் டீப்ஃபேக் ஆகும்.
அந்த வீடியோவில் கேல் கடோட், டெய்லர் ஸ்விஃப்ட், ஸ்கார்லெட் ஜோஹன்சன் மற்றும் பல பிரபலங்களின் முகங்களை ஆபாச கலைஞர்களின் முகங்களில் மாற்றி வெளியிட்டார் என்பது குறிப்பிடத்தக்கது.
ஃபேஸ்-ஸ்வாப்
வீடியோவை உருவாக்க சில படிகள் தேவை. முதலில், Encoder எனப்படும் AI அல்காரிதம் மூலம் இரண்டு நபர்களின் ஆயிரக்கணக்கான ஃபேஸ் ஷாட்களை தயார் செய்கின்றனர்.
பின்னர் அந்த Encoder இரண்டு முகங்களுக்கிடையே உள்ள ஒற்றுமைகளைக் கண்டறிந்து கற்றுக்கொள்கிறது, மேலும் அதன் செயல்பாட்டில் ஆபாசமான அல்லது என்ன தேவையோ அதற்கு தேவைபடும் வீடியோக்களில் உள்ள படங்களை சுருக்கி, அவற்றில் பகிரப்பட்ட பொதுவான அம்சங்களுக்கு அவற்றைக் குறைக்கிறது.
டிகோடர் எனப்படும் இரண்டாவது AI அல்காரிதத்திற்கு சுருக்கப்பட்ட படங்களிலிருந்து முகங்களை மீட்டெடுக்க கற்றுக்கொடுக்கப்படுகிறது.
முகங்கள் வித்தியாசமாக இருப்பதால், முதல் நபரின் முகத்தை மீட்டெடுக்க ஒரு டிகோடரையும், இரண்டாவது நபரின் முகத்தை மீட்டெடுக்க மற்றொரு டிகோடருக்கும் பயிற்சி செய்யப்படுகின்றது.
ஃபேஸ் ஸ்வாப்பைச் செய்ய, குறியிடப்பட்ட படங்களை “தவறான” டிகோடரில் உட்படுத்தும். எடுத்துக்காட்டாக, நபர் A இன் முகத்தின் சுருக்கப்பட்ட படம், நபர் B மீது பயிற்சியளிக்கப்பட்ட குறிவிலக்கியில் (Decoder) இல் செலுத்தப்படுகிறது.
பின்னர் டிகோடர் A இன் வெளிப்பாடுகள் மற்றும் நோக்குநிலையுடன் நபரின் முகத்தை மறுகட்டமைக்கிறது. ஒரு உறுதியான வீடியோவிற்கு, இது போன்ற வீடியோ சட்டகம் செய்யப்பட வேண்டும்.
டீப்ஃபேக்குகளை உருவாக்குவதற்கான மற்றொரு வழி,
ஜெனரேட்டிவ் அட்வர்ஸரியல் நெட்வொர்க் Generative Adversarial Network, or GAN என்று அழைக்கப்படுகிறது.
ஒரு GAN இரண்டு செயற்கை நுண்ணறிவு (Artificial Intelligence) வழிமுறைகளை ஒன்றோடொன்று இணைக்கிறது.
ஜெனரேட்டர் எனப்படும் முதல் அல்காரிதம், சீரற்ற சப்தத்தின் மூலமாக அதை ஒரு படமாக மாற்றுகிறது.
இந்த செயற்கைப் படம் பின்னர் உண்மையான படங்களின் ஸ்ட்ரீமில் சேர்க்கப்படுகிறது.
பின்னர் Discriminator என அறியப்படும் இரண்டாவது வழிமுறையில் கொடுக்கப்படுகிறது.
முதலில், செயற்கைப் படங்கள் முகங்களைப் போல் இருக்காது. ஆனால் செயல்திறனுக்கான பின்னூட்டத்துடன் எண்ணற்ற முறை செயல்முறையை மீண்டும் செயல்படுத்தப்படும், மேலும் Discriminator மற்றும் ஜெனரேட்டர் இரண்டும் மேம்படுத்தும்.
போதுமான சுழற்சிகள் மற்றும் உருவகம் கொடுக்கப்பட்டால், ஜெனரேட்டர் முற்றிலும் உண்மையல்லாத பிரபலங்களின் தோற்றத்தை யதார்த்தமான முகங்களாக உருவாக்கத் தொடங்கும்.
டீப்ஃபேக்குகளை உருவாக்குவது யார்?
கல்வி மற்றும் தொழில்துறை ஆராய்ச்சியாளர்கள் முதல் அமெச்சூர் ஆர்வலர்கள், விஷுவல் எஃபெக்ட்ஸ் ஸ்டுடியோக்கள் மற்றும் ஆபாச தயாரிப்பாளர்கள் வரை அனைவரும் இந்த டீப்ஃபேக் தொழில்நுட்பத்தை (Deepfake Technology) உருவாக்குகின்றனர்.
தீவிரவாத குழுக்களுக்கு எதிராக அவர்களின் இலக்குகளை சீர்குலைப்பதற்கும் அல்லது இலக்கு வைக்கப்பட்ட நபர்களுடன் தொடர்பு கொள்வதற்கும் அவர்களின் ஆன்லைன் உத்திகளின் ஒரு பகுதியாக அரசாங்கங்களும் இந்த டீப்ஃபேக் தொழில்நுட்ப(Deepfake Technology)த்தில் ஈடுபடலாம்.
உங்களுக்கு என்ன தொழில்நுட்பம் தேவை?
ஒரு சாதாரண கணினியில் ஒரு நல்ல டீப்ஃபேக்கை உருவாக்குவது கடினம்.
பெரும்பாலானவை சக்திவாய்ந்த கிராபிக்ஸ் கார்டுகளுடன் கூடிய உயர்நிலை டெஸ்க்டாப்களில் உருவாக்கப்படுகின்றன அல்லது க்ளவுட் கம்ப்யூட்டிங் சக்தியுடன் சிறப்பாக இருக்கும் கணிணிகளில் இவை உருவாக்கப்படுகின்றன.
இது செயலாக்க நேரத்தை, நாட்கள் மற்றும் வாரங்களிலிருந்து சில மணிநேரங்களுக்கு குறைக்கிறது.
ஆனால் மினுமினுப்பு மற்றும் பிற பார்வைக் குறைபாடுகளைக் சரி செய்து முடிக்க அதிக நிபுணத்துவம் தேவைப்படுகிறது.
டீப்ஃபேக்குகளை உருவாக்க மக்களுக்கு உதவ ஏராளமான கருவிகள் இப்போது கிடைக்கின்றன.
பல நிறுவனங்கள் உங்களுக்காக அவற்றை உருவாக்கி, கிளவுட்டில் அனைத்து செயலாக்கங்களையும் சேமிக்கும் வசதிகளும் வந்துவிட்டன.
இதற்காக Zao என்ற மொபைல் ஃபோன் செயலி கூட உள்ளது, இது டிவி மற்றும் திரைப்பட கதாபாத்திரங்களின் பட்டியலில் பயனர்கள் தங்கள் முகங்களைச் சேர்க்க உதவுகிறது.
டீப்ஃபேக்கை எப்படி கண்டறிவது?
தொழில்நுட்பம் மேம்படும் போது டீப்ஃபேக்கை கண்டறிவது கடினமாகிறது.
2018 ஆம் ஆண்டில், அமெரிக்க ஆராய்ச்சியாளர்கள் டீப்ஃபேக் முகங்கள் சாதாரணமாக சிமிட்டுவதில்லை என்பதைக் கண்டுபிடித்தனர்.
அது ஆச்சரியப்படும் விசயமில்லை தான். ஆம் பெரும்பாலான புகைப்படங்களில் மக்கள் தங்கள் கண்களைத் திறந்து தான் வைத்துள்ளனர், எனவே அல்காரிதம்கள் உண்மையில் சிமிட்டுவதைப் பற்றி அறியவே இல்லை.
முதலில், இந்த மாற்றம் டீப்ஃபேக்குகளை கண்டறியும் பிரச்சனைக்கான சில்வர் புல்லட் போல் தோன்றியது.
ஆனால் ஆராய்ச்சி வெளியிடப்பட்ட உடனேயே, டீப்ஃபேக்குகள் கண் சிமிட்டும் வகையில் செயல்படுத்தப்பட துவங்கின. விளையாட்டின் இயல்பு இதுதான்: ஒரு பலவீனம் வெளிப்பட்டவுடன், அது சரி செய்யப்படுகிறது.
மோசமான டீப்ஃபேக்குகளைக் கண்டறிவது எளிது.
உதடு ஒத்திசைவு மோசமாக இருக்கலாம் அல்லது ஸ்கின் டோன் தொனியில் தடுமாறும். இடம்மாற்றப்பட்ட முகங்களின் விளிம்புகளைச் சுற்றி ஒளிரும். மற்றும் முடி போன்ற நுண்ணிய விவரங்கள், குறிப்பாக டீப்ஃபேக்குகள் நன்றாக வழங்குவது கடினம், குறிப்பாக விளிம்புகளில் இழைகள் தெரியும்.
சீரற்ற வெளிச்சம் மற்றும் கருவிழியில் பிரதிபலிப்புகள் போன்ற விசித்திரமான ஒளி விளைவுகள், மோசமாகத் தரப்பட்ட நகைகள் மற்றும் பற்கள் ஆகியவையும் டீப்ஃபேக்குகளை கண்டரிய வாய்ப்பாக இருக்கலாம்.
டீப்ஃபேக்குகளை கண்டரிய நிதி
அரசாங்கங்கள், பல்கலைக்கழகங்கள் மற்றும் தொழில்நுட்ப நிறுவனங்கள் அனைத்தும் Deepfakeகளை கண்டறிவதற்கான ஆராய்ச்சிக்கு நிதியளிக்கின்றன.
கடந்த மாதம், மைக்ரோசாப்ட், பேஸ்புக் மற்றும் அமேசான் ஆதரவுடன் முதல் டீப்ஃபேக் கண்டறிதல் சவால் தொடங்கியது. டீப்ஃபேக் கண்டறிதல் விளையாட்டில் மேலாதிக்கத்திற்காக போட்டியிடும் உலகெங்கிலும் உள்ள ஆராய்ச்சி குழுக்கள் இதில் பங்கு கொண்டுள்ளன.
2020 அமெரிக்கத் தேர்தலுக்கு முன்னதாக, ஒருவர் “அவர் உண்மையில் சொல்லாத வார்த்தைகளைச் சொன்னார்” என்று பார்வையாளர்களை தவறாக வழிநடத்தும் ஆழமான வீடியோக்களை பேஸ்புக் கடந்த வாரம் தடை செய்தது.
எவ்வாறாயினும், AI ஐப் பயன்படுத்தி உருவாக்கப்பட்ட தவறான தகவல்களை மேலோட்டமாக மட்டுமே கண்டரியப்பட்டு வருகின்றது. இன்னும் பல டீப்ஃபேக்குகள் இயங்குதளத்தில் அனுமதிக்கப்பட்டுதான் வருகின்றது.
டீப்ஃபேக்குகள் அழிவை ஏற்படுத்துமா?
இனிவரும் காலங்களில் துன்புறுத்தும், பயமுறுத்தும், இழிவுபடுத்தும், குறைமதிப்பிற்கு உட்படுத்தும் மற்றும் சீர்குலைக்கும் டீப்ஃபேக்குகளை நாம் எதிர்பார்க்கலாம்.
ஆனால் டீப்ஃபேக்குகள் முக்கிய சர்வதேச சம்பவங்களைத் தூண்டுமா? என்றால் தற்போது இந்த நிலை ஏற்படும் சாதகம் குறைவாகவே உள்ளது.
ஒரு டீப்ஃபேக்கான உலகத் தலைவர் பெரிய சிவப்பு பொத்தானை அழுத்தினால் அது ஆர்மகெடானை (பேரழிவை) ஏற்படுத்தக் கூடாது.
எல்லையில் திரளும் துருப்புக்களின் ஆழமான செயற்கைக்கோள் படங்கள் அதிக சிக்கலை ஏற்படுத்தாது. ஏனென்றால் பெரும்பாலான நாடுகள் தங்களுக்கென நம்பகமான பாதுகாப்பு வலையங்களைக் கொண்டுள்ளன.
இருப்பினும், Fun வீடியோக்களை உருவாக்குவதற்கு இன்னும் போதுமான இடம் உள்ளது. கடந்த ஆண்டு, எலோன் மஸ்க் ஒரு நேரடி இணைய நிகழ்ச்சியில் புகைபிடித்த நிகழ்வு காரணமாக டெஸ்லா பங்கு சரிந்தது.
அதே போல் டிசம்பரில், டொனால்ட் டிரம்ப் நேட்டோ கூட்டத்தில் இருந்து வீட்டிற்கு முன்னதாகவே பறந்து சென்றார், மற்ற உலகத் தலைவர்கள் அவரை கேலி செய்யும் உண்மையான காட்சிகள் வெளிவந்தன.
இது போன்ற நம்பத்தகுந்த டீப்ஃபேக்குகள் பங்கு விலைகளை மாற்றுமா? வாக்காளர்களை பாதிக்குமா? மற்றும் மத பதற்றத்தைத் தூண்டுமா? என்பதெல்லாம் போகப்போகத்தான் தெரியும். இது பாதுகாப்பான பந்தயம் போல் தெரியவில்லை.
அவர்கள் நம்பிக்கையை குலைப்பார்களா?
டீப்ஃபேக்கின் நயவஞ்சகமான தாக்கம் ஊடகங்கள் மற்றும் செய்திகளின் மீது நம்பிக்கையற்ற சமூகத்தை உருவாக்கும் என்பதில் சந்தேகமில்லை.
மேலும் மக்கள் உண்மையைப் பொய்யிலிருந்து வேறுபடுத்தி பார்க்க முடியாது அல்லது அதனை பற்றி அவர்கள் கவலை படுவதில்லை எனும் நிலையை தான் ஏற்படுத்தும் என்பதில் ஐயமில்லை.
மேலும் நம்பிக்கை சிதைக்கப்படும்போது, குறிப்பிட்ட நிகழ்வுகளைப் பற்றிய சந்தேகங்களை எழுப்புவது எளிதாகிவிடும்.
கடந்த ஆண்டு, கேமரூனின் தகவல் தொடர்பு அமைச்சர், கேமரூனிய நாட்டின் ராணுவ வீரர்கள் பொதுமக்களை தூக்கிலிடுவதைக் காட்டும் காணொளியை அம்னெஸ்டி இன்டர்நேஷனல் வெளியிட்டதை போலிச் செய்தி என்று அந்த அமைச்சர் நிராகரித்தார்.
பதிவு செய்யப்பட்ட உரையாடலில் பெண்களின் பிறப்புறுப்பைப் பற்றிப் தவறாக பேசியதை ஒப்புக்கொண்ட டொனால்ட் டிரம்ப், பின்னர் டேப் உண்மையானது அல்ல என்று மறுத்துப்பேசினார்.
நியூகேஸ்டில் பல்கலைக்கழகத்தின் (Newcastle University) இணையச் சட்ட (Internet Law)த்தின் முன்னணி நிபுணரான பேராசிரியர் லிலியன் எட்வர்ட்ஸ் (Prof Lilian Edwards) கூறுகையில், “ஒரு போலியான விசயம் யதார்த்தமாக (உண்மை என) பார்க்கப்படும்போது, நம்பத்தகுந்த உண்மையான யதார்த்தம் மறுக்கக்கூடியதாக மாறுகிறது.” என்று சொல்கின்றார்.
நீதிக்கு சவாலாகலாம்
தொழில்நுட்பம் இலகுவாக அணுகக்கூடியதாக மாறும்போது, டீப்ஃபேக்குகள் நீதிமன்றங்களுக்கு சிக்கலைக் அதிகப்படுத்தலாம்,
குறிப்பாக குழந்தைகளின் பாதுகாப்பு மற்றும் வேலைவாய்ப்பு தொடர்பான நீதி விசாரணைகளில் போலி நிகழ்வுகள் ஆதாரமாக காட்டப்படலாம்.
அவை தனிப்பட்ட பாதுகாப்பு அபாயத்தையும் ஏற்படுத்துகின்றன: டீப்ஃபேக்குகள் பயோமெட்ரிக் தரவைப் பிரதிபலிக்கும், மேலும் முகம், குரல், நரம்பு அல்லது நடை அங்கீகாரத்தை நம்பியிருக்கும் அமைப்புகளை ஏமாற்றலாம்.
மோசடிக்கான சாத்தியம் தெளிவாக உள்ளது. தெரியாத ஒருவருக்கு ஃபோன் செய்து, அவர்களுக்கு தெரியாத வங்கிக் கணக்கிற்கு பணத்தை மாற்ற வாய்ப்பில்லை.
ஆனால் உங்கள் “அம்மா” அல்லது “சகோதரி” வாட்ஸ்அப்பில் வீடியோ அழைப்பை அமைத்து அதே கோரிக்கையை செய்தால் என்ன செய்வது?
என்ன தீர்வு?
இது வேடிக்கையான, AI பதிலாக இருக்கலாம். செயற்கை நுண்ணறிவு (AI) ஏற்கனவே போலி வீடியோக்களைக் கண்டறிய உதவுகிறது என்பது உண்மை தான். ஆனால் தற்போதுள்ள பல கண்டறிதல் முறை கடுமையான பலவீனத்தைக் கொண்டுள்ளன.
அவை பிரபலங்களுக்குச் சிறப்பாகச் செயல்படுகின்றன, ஏனெனில் அவர்களின் பல மணிநேர வீடியோ காட்சிகள் இலவசமாகக் கிடைக்கும் அப்படி கிடைக்கும் காட்சிகளை கொண்டு AI க்கு பயிற்றுவிக்க முடியும்.
தொழில்நுட்ப நிறுவனங்கள் டீப்ஃபேக்குகளை கண்டறியும் முறைகளில் நிறைய மாற்றாங்கள் தேவை.
டீப்ஃபேக்குகள் தோன்றும் போதெல்லாம் கோடிட்டு காட்டும் வண்ணம் தற்போது செயல்பட்டாலும் அதில் இன்னும் மெறுகேற்றப்பட வேண்டும். மற்றொரு மூலோபாயம் ஊடகங்கள் தங்கள் ஆதாரத்தில் அதிக கவனம் செலுத்த வேண்டும்.
டிஜிட்டல் வாட்டர்மார்க்குகள் இல்லாமல் எந்த வீடியோவையும் யாரும் பரப்ப முடியாதவாறு செயல்படுத்தப்பட வேண்டும்.
ஆனால் ஒரு பிளாக்செயின் ஆன்லைன் லெட்ஜர் அமைப்பு வீடியோக்கள், படங்கள் மற்றும் ஆடியோவின் டேம்பர்-ப்ரூஃப் பதிவை வைத்திருக்க முடியும், எனவே அவற்றின் தோற்றம் மற்றும் ஏதேனும் கையாளுதல்களை எப்போதும் சரிபார்க்க முடியும்.
டீப்ஃபேக்குகளால் தீங்கு மட்டும் தானா?
இல்லவே இல்லை. பல பொழுதுபோக்கிற்காகவும் மற்றும் சில வேளைகளில் பயனுள்ளதாகவும் இருக்கும்.
குரல்-குளோனிங் டீப்ஃபேக்குகள் நோயால் மக்கள் இழக்கும் அவர்களின் குரல்களை மீட்டெடுக்க முடியும்.
டீப்ஃபேக் வீடியோக்கள் காட்சியகங்கள் மற்றும் அருங்காட்சியகங்களை உயிர்ப்பிக்கும்.
புளோரிடாவில், டாலி அருங்காட்சியகத்தில் சர்ரியலிஸ்ட் ஓவியர் தனது கலையை அறிமுகப்படுத்தி பார்வையாளர்களுடன் செல்ஃபி எடுத்துக்கொண்ட நிகழ்வுகளும் உண்டு.
பொழுதுபோக்குத் துறையைப் பொறுத்தவரை, வெளிநாட்டு மொழிப் படங்களின் டப்பிங்கை மேம்படுத்தவும், மேலும் சர்ச்சைக்குரிய வகையில், இறந்த நடிகர்களை உயிர்ப்பிக்கவும், இந்த தொழில்நுட்பத்தைப் பயன்படுத்தலாம்.
எடுத்துக்காட்டாக, மறைந்த ஜேம்ஸ் டீன், வியட்நாம் போர்த் திரைப்படமான ஃபைண்டிங் ஜாக்கில் நடிக்க உள்ளார்.
அதே போல் நமது தமிழ்நாட்டில் மறைந்த நடிகர் விவேக் மீண்டும் திரைக்கு வருகின்றார் என்பது குறிப்பிடத்தக்கது.
-அன்புடன்
முத்துப்பேட்டை அலீம்
எமது முந்தைய பதிவை படிக்க… Is Uniform Civil Code good for India? பொது சிவில் சட்டம் இந்தியாவிற்கு நல்லதா?
This article is very interesting…
நன்றி