Deepfake Technology

Deepfake Technology – எதிர்கால சந்ததிகளின் வாழ்வை சீரழிக்குமா?

Deepfake Technology – டீப்ஃபேக் தொழில்நுட்பம் என்றால் என்ன?

அறிமுகம்

பராக் ஒபாமா, டொனால்ட் டிரம்பை “முழுமையான டிப்ஷிட் (dipshit)” என்று அழைப்பதை நீங்கள் பார்த்திருக்கிறீர்களா? அல்லது,

மார்க் ஜுக்கர்பெர்க் “பில்லியன் கணக்கான மக்களின் திருடப்பட்ட தரவுகள் மொத்தமும் தம் கட்டுப்பாட்டில்” இருப்பதைப் பற்றி தற்பெருமை பேசுவதைப் பார்த்தீர்களா? அல்லது,

கேம் ஆஃப் த்ரோன்ஸின் மோசமான முடிவுக்கு ஜான் ஸ்னோ மன்னிப்புக் கேட்டதைக் கண்டீர்களா? ஆம் என்று பதிலளித்தால், நீங்கள் ஒரு டீப்ஃபேக்கைப் பார்த்திருக்கின்றீர்கள்.

புகைப்படங்களுக்கு ஃபோட்டோஷாப் என்றால் 21 ஆம் நூற்றாண்டில் புகைப்படம் மற்றும் வீடியோக்களுக்கு டீப்ஃபேக்.

டீப்ஃபேக்குகள் போலி நிகழ்வுகளின் புகைப்படங்களை உருவாக்க செயற்கை நுண்ணறிவின் (Artificial Intelligence) ஒரு வடிவத்தைப் பயன்படுத்துகின்றன, இதுவே டீப்ஃபேக் என்று அழைக்கப்படுகின்றது.

ஒரு அரசியல்வாதியின் வாயில் புதிய வார்த்தைகளை வரவைக்க வேண்டுமா? உங்களுக்குப் பிடித்த திரைப்படத்தில் நீங்களே நடிக்க வேண்டுமா? அல்லது தேர்ந்த கலைஞன் போல ஆட வேண்டுமா? அப்படியானால் உங்களுக்கு ஒரு டீப்ஃபேக்கை உருவாக்க வேண்டிய நேரம் இதுதான்.

எதற்காக அவை?

டீப்ஃபேக்குகள் அதிகமானவை ஆபாசமானவை தான். AI நிறுவனமான டீப்ட்ரேஸ் Deeptrace செப்டம்பர் 2019 இல் ஆன்லைனில் 15,000 டீப்ஃபேக் தொழில்நுட்ப (Deepfake Technology) வீடியோக்களைக் கண்டறிந்தது.

இது ஒன்பது மாதங்களில் இரட்டிப்பானது. இதில் அதிர்ச்சியூட்டும் செய்தி 96% சதவிகிதம் ஆபாசப் படங்கள் மேலும் அதில் 99% சதவிகிதம் பெண் பிரபலங்கள் முதல் ஆபாச நட்சத்திரங்கள் வரை மேப் செய்யப்பட்ட முகங்கள்.

புதிய நுட்பங்கள், திறமையற்றவர்களை கூட ஒரு சில புகைப்படங்களுடன் டீப்ஃபேக்குகளை உருவாக்க அனுமதிப்பதால், கீழ்த்தரமாக ஏதாவது செய்து பழிவாங்க வேண்டும் என்ற நோக்கத்தோடு இணையத்தில் உலவுபவர்களுக்கு இது ஒரு வரப்பிரசாதமாக அமைந்துள்ளது.

அது போன்ற கேவலமானவர்களின் கைகளில் இவை சிக்கும் போது டீப்ஃபேக் ஆபாசப்படங்கள் மற்றும் வீடியோக்கள் என இன்னும் அதிகமாக பரவ வாய்ப்புள்ளது.

பாஸ்டன் பல்கலைக்கழகத்தின் சட்டப் பேராசிரியரான டேனியல் சிட்ரான் கூறுகின்றார் “பெண்களுக்கு எதிராக, டீப்ஃபேக் தொழில்நுட்பம் ஆயுதமாக்கப்படுகிறது.” ஆபாசத்திற்கு அப்பால் ஏராளமான ஏமாற்று நடவடிக்கை, கிண்டலடிக்கவும் மற்றும் குறும்புத்தனங்களை உறுவாக்கவும் பயன்படுவதாக கூறுகின்றார்.

Deepfake Technology இது வெறும் வீடியோக்களைப் பற்றியதா?

இல்லை. டீப்ஃபேக் தொழில்நுட்பமானது நம்பிக்கைக்குரிய ஆனால் முற்றிலும் கற்பனையான புகைப்படங்களை புதிதாக உருவாக்க முடியும்.

லிங்க்ட்இன் LinkedIn மற்றும் ட்விட்டரில் Twitter சுயவிவரத்தைக் கொண்டிருந்த “மைஸி கின்ஸ்லி” என்ற ப்ளூம்பெர்க் பத்திரிகையாளர் ஒரு போலியான டீப்ஃபேக் தொழில்நுட்பம், மற்றொரு லிங்க்ட்இன் LinkedIn போலியான, “கேட்டி ஜோன்ஸ்”, சர்வதேச ஆய்வுகளுக்கான மையத்தில் பணிபுரிவதாகக் கூறினார், ஆனால் வெளிநாட்டு உளவு நடவடிக்கைக்காக உருவாக்கப்பட்ட டீப்ஃபேக் என்று தெரியவருகின்றது.

பப்ளிக் ஃபிகர்ஸ் என்று சொல்லக்கூடிய பிரபலமான நபர்களின் “குரல்கள்” அல்லது “குரல் குளோன் ஆடியோவையும் டீப்ஃபேக்கில் உருவாக்கலாம்.

கடந்த மார்ச் மாதம், ஃபிராடு ஒருவன் ஜெர்மன் தலைமை நிர்வாக அதிகாரியைப்போல ஜேர்மன் எரிசக்தி நிறுவனத்தின் UK துணை நிறுவனத்தின் தலைவரிடம் பேசி கிட்டத்தட்ட £200,000 ஐ ஹங்கேரிய வங்கிக் கணக்கில் மாற்றப்பட்டதும் இந்த டீப்ஃபேக் தொழில்நுட்பம் தான்.

இன்ஸூரன்ஸ் அதிகாரிகள், பேசியது ஜெர்மன் தலைமை அதிகாரி அல்ல, அவர்போல பேச வாட்ஸ்அப் வாய்ஸ் மெசேஜை பயன்படுத்தி டீப்ஃபேக் தொழில்நுட்பத்தால் (Deepfake Technology) உருவாக்கப்பட்ட குரல் என்று தெரிவிக்கின்றனர்.

அவை எவ்வாறு தயாரிக்கப்படுகின்றன?

பல்கலைக்கழக ஆராய்ச்சியாளர்கள் மற்றும் ஸ்பெஷல் எஃபெக்ட்ஸ் ஸ்டுடியோக்கள் நீண்ட காலமாக வீடியோ மற்றும் புகைப்படங்களை கையாளுதல் மூலம் சாத்தியமான உட்சபட்ச எல்லைவரை சென்றனர்.

அந்த சமயத்தில் 2017 ஆம் ஆண்டில் ஒரு ரெடிட் Reddit பயனர் ஒருவர் ஒரு மருத்துவரின் ஆபாச வீடியோக்களை தனது தளத்தில் வெளியிட்டார். இதுவே முதல் டீப்ஃபேக் ஆகும்.

அந்த வீடியோவில் கேல் கடோட், டெய்லர் ஸ்விஃப்ட், ஸ்கார்லெட் ஜோஹன்சன் மற்றும் பல பிரபலங்களின் முகங்களை ஆபாச கலைஞர்களின் முகங்களில் மாற்றி வெளியிட்டார் என்பது குறிப்பிடத்தக்கது.

ஃபேஸ்-ஸ்வாப்

வீடியோவை உருவாக்க சில படிகள் தேவை. முதலில், Encoder எனப்படும் AI அல்காரிதம் மூலம் இரண்டு நபர்களின் ஆயிரக்கணக்கான ஃபேஸ் ஷாட்களை தயார் செய்கின்றனர்.

பின்னர் அந்த Encoder இரண்டு முகங்களுக்கிடையே உள்ள ஒற்றுமைகளைக் கண்டறிந்து கற்றுக்கொள்கிறது, மேலும் அதன் செயல்பாட்டில் ஆபாசமான அல்லது என்ன தேவையோ அதற்கு தேவைபடும் வீடியோக்களில் உள்ள படங்களை சுருக்கி, அவற்றில் பகிரப்பட்ட பொதுவான அம்சங்களுக்கு அவற்றைக் குறைக்கிறது.

டிகோடர் எனப்படும் இரண்டாவது AI அல்காரிதத்திற்கு சுருக்கப்பட்ட படங்களிலிருந்து முகங்களை மீட்டெடுக்க கற்றுக்கொடுக்கப்படுகிறது.

முகங்கள் வித்தியாசமாக இருப்பதால், முதல் நபரின் முகத்தை மீட்டெடுக்க ஒரு டிகோடரையும், இரண்டாவது நபரின் முகத்தை மீட்டெடுக்க மற்றொரு டிகோடருக்கும் பயிற்சி செய்யப்படுகின்றது.

ஃபேஸ் ஸ்வாப்பைச் செய்ய, குறியிடப்பட்ட படங்களை “தவறான” டிகோடரில் உட்படுத்தும். எடுத்துக்காட்டாக, நபர் A இன் முகத்தின் சுருக்கப்பட்ட படம், நபர் B மீது பயிற்சியளிக்கப்பட்ட குறிவிலக்கியில் (Decoder) இல் செலுத்தப்படுகிறது.

பின்னர் டிகோடர் A இன் வெளிப்பாடுகள் மற்றும் நோக்குநிலையுடன் நபரின் முகத்தை மறுகட்டமைக்கிறது. ஒரு உறுதியான வீடியோவிற்கு, இது போன்ற வீடியோ சட்டகம் செய்யப்பட வேண்டும்.

டீப்ஃபேக்குகளை உருவாக்குவதற்கான மற்றொரு வழி,

ஜெனரேட்டிவ் அட்வர்ஸரியல் நெட்வொர்க் Generative Adversarial Network, or GAN என்று அழைக்கப்படுகிறது.

ஒரு GAN இரண்டு செயற்கை நுண்ணறிவு (Artificial Intelligence) வழிமுறைகளை ஒன்றோடொன்று இணைக்கிறது.

ஜெனரேட்டர் எனப்படும் முதல் அல்காரிதம், சீரற்ற சப்தத்தின் மூலமாக அதை ஒரு படமாக மாற்றுகிறது.

இந்த செயற்கைப் படம் பின்னர் உண்மையான படங்களின் ஸ்ட்ரீமில் சேர்க்கப்படுகிறது.

பின்னர் Discriminator என அறியப்படும் இரண்டாவது வழிமுறையில் கொடுக்கப்படுகிறது.

முதலில், செயற்கைப் படங்கள் முகங்களைப் போல் இருக்காது. ஆனால் செயல்திறனுக்கான பின்னூட்டத்துடன் எண்ணற்ற முறை செயல்முறையை மீண்டும் செயல்படுத்தப்படும், மேலும் Discriminator மற்றும் ஜெனரேட்டர் இரண்டும் மேம்படுத்தும்.

போதுமான சுழற்சிகள் மற்றும் உருவகம் கொடுக்கப்பட்டால், ஜெனரேட்டர் முற்றிலும் உண்மையல்லாத பிரபலங்களின் தோற்றத்தை யதார்த்தமான முகங்களாக உருவாக்கத் தொடங்கும்.

டீப்ஃபேக்குகளை உருவாக்குவது யார்?

கல்வி மற்றும் தொழில்துறை ஆராய்ச்சியாளர்கள் முதல் அமெச்சூர் ஆர்வலர்கள், விஷுவல் எஃபெக்ட்ஸ் ஸ்டுடியோக்கள் மற்றும் ஆபாச தயாரிப்பாளர்கள் வரை அனைவரும் இந்த டீப்ஃபேக் தொழில்நுட்பத்தை (Deepfake Technology) உருவாக்குகின்றனர்.

தீவிரவாத குழுக்களுக்கு எதிராக அவர்களின் இலக்குகளை சீர்குலைப்பதற்கும் அல்லது இலக்கு வைக்கப்பட்ட நபர்களுடன் தொடர்பு கொள்வதற்கும் அவர்களின் ஆன்லைன் உத்திகளின் ஒரு பகுதியாக அரசாங்கங்களும் இந்த டீப்ஃபேக் தொழில்நுட்ப(Deepfake Technology)த்தில் ஈடுபடலாம்.

உங்களுக்கு என்ன தொழில்நுட்பம் தேவை?

ஒரு சாதாரண கணினியில் ஒரு நல்ல டீப்ஃபேக்கை உருவாக்குவது கடினம்.

பெரும்பாலானவை சக்திவாய்ந்த கிராபிக்ஸ் கார்டுகளுடன் கூடிய உயர்நிலை டெஸ்க்டாப்களில் உருவாக்கப்படுகின்றன அல்லது க்ளவுட் கம்ப்யூட்டிங் சக்தியுடன் சிறப்பாக இருக்கும் கணிணிகளில் இவை உருவாக்கப்படுகின்றன.

இது செயலாக்க நேரத்தை, நாட்கள் மற்றும் வாரங்களிலிருந்து சில மணிநேரங்களுக்கு குறைக்கிறது.

ஆனால் மினுமினுப்பு மற்றும் பிற பார்வைக் குறைபாடுகளைக் சரி செய்து முடிக்க அதிக நிபுணத்துவம் தேவைப்படுகிறது.

டீப்ஃபேக்குகளை உருவாக்க மக்களுக்கு உதவ ஏராளமான கருவிகள் இப்போது கிடைக்கின்றன.

பல நிறுவனங்கள் உங்களுக்காக அவற்றை உருவாக்கி, கிளவுட்டில் அனைத்து செயலாக்கங்களையும் சேமிக்கும் வசதிகளும் வந்துவிட்டன.

இதற்காக Zao என்ற மொபைல் ஃபோன் செயலி கூட உள்ளது, இது டிவி மற்றும் திரைப்பட கதாபாத்திரங்களின் பட்டியலில் பயனர்கள் தங்கள் முகங்களைச் சேர்க்க உதவுகிறது.

டீப்ஃபேக்கை எப்படி கண்டறிவது?

தொழில்நுட்பம் மேம்படும் போது டீப்ஃபேக்கை கண்டறிவது கடினமாகிறது.

2018 ஆம் ஆண்டில், அமெரிக்க ஆராய்ச்சியாளர்கள் டீப்ஃபேக் முகங்கள் சாதாரணமாக சிமிட்டுவதில்லை என்பதைக் கண்டுபிடித்தனர்.

அது ஆச்சரியப்படும் விசயமில்லை தான். ஆம் பெரும்பாலான புகைப்படங்களில் மக்கள் தங்கள் கண்களைத் திறந்து தான் வைத்துள்ளனர், எனவே அல்காரிதம்கள் உண்மையில் சிமிட்டுவதைப் பற்றி அறியவே இல்லை.

முதலில், இந்த மாற்றம் டீப்ஃபேக்குகளை கண்டறியும் பிரச்சனைக்கான சில்வர் புல்லட் போல் தோன்றியது.

ஆனால் ஆராய்ச்சி வெளியிடப்பட்ட உடனேயே, டீப்ஃபேக்குகள் கண் சிமிட்டும் வகையில் செயல்படுத்தப்பட துவங்கின. விளையாட்டின் இயல்பு இதுதான்: ஒரு பலவீனம் வெளிப்பட்டவுடன், அது சரி செய்யப்படுகிறது.

மோசமான டீப்ஃபேக்குகளைக் கண்டறிவது எளிது.

உதடு ஒத்திசைவு மோசமாக இருக்கலாம் அல்லது ஸ்கின் டோன் தொனியில் தடுமாறும். இடம்மாற்றப்பட்ட முகங்களின் விளிம்புகளைச் சுற்றி ஒளிரும். மற்றும் முடி போன்ற நுண்ணிய விவரங்கள், குறிப்பாக டீப்ஃபேக்குகள் நன்றாக வழங்குவது கடினம், குறிப்பாக விளிம்புகளில் இழைகள் தெரியும்.

சீரற்ற வெளிச்சம் மற்றும் கருவிழியில் பிரதிபலிப்புகள் போன்ற விசித்திரமான ஒளி விளைவுகள், மோசமாகத் தரப்பட்ட நகைகள் மற்றும் பற்கள் ஆகியவையும் டீப்ஃபேக்குகளை கண்டரிய வாய்ப்பாக இருக்கலாம்.

டீப்ஃபேக்குகளை கண்டரிய நிதி

Deepfake Technologyஅரசாங்கங்கள், பல்கலைக்கழகங்கள் மற்றும் தொழில்நுட்ப நிறுவனங்கள் அனைத்தும் Deepfakeகளை கண்டறிவதற்கான ஆராய்ச்சிக்கு நிதியளிக்கின்றன.

கடந்த மாதம், மைக்ரோசாப்ட், பேஸ்புக் மற்றும் அமேசான் ஆதரவுடன் முதல் டீப்ஃபேக் கண்டறிதல் சவால் தொடங்கியது. டீப்ஃபேக் கண்டறிதல் விளையாட்டில் மேலாதிக்கத்திற்காக போட்டியிடும் உலகெங்கிலும் உள்ள ஆராய்ச்சி குழுக்கள் இதில் பங்கு கொண்டுள்ளன.

2020 அமெரிக்கத் தேர்தலுக்கு முன்னதாக, ஒருவர் “அவர் உண்மையில் சொல்லாத வார்த்தைகளைச் சொன்னார்” என்று பார்வையாளர்களை தவறாக வழிநடத்தும் ஆழமான வீடியோக்களை பேஸ்புக் கடந்த வாரம் தடை செய்தது.

எவ்வாறாயினும், AI ஐப் பயன்படுத்தி உருவாக்கப்பட்ட தவறான தகவல்களை மேலோட்டமாக மட்டுமே கண்டரியப்பட்டு வருகின்றது. இன்னும் பல டீப்ஃபேக்குகள் இயங்குதளத்தில் அனுமதிக்கப்பட்டுதான் வருகின்றது.

டீப்ஃபேக்குகள் அழிவை ஏற்படுத்துமா?

இனிவரும் காலங்களில் துன்புறுத்தும், பயமுறுத்தும், இழிவுபடுத்தும், குறைமதிப்பிற்கு உட்படுத்தும் மற்றும் சீர்குலைக்கும் டீப்ஃபேக்குகளை நாம் எதிர்பார்க்கலாம்.

ஆனால் டீப்ஃபேக்குகள் முக்கிய சர்வதேச சம்பவங்களைத் தூண்டுமா? என்றால் தற்போது இந்த நிலை ஏற்படும் சாதகம் குறைவாகவே உள்ளது.

ஒரு டீப்ஃபேக்கான உலகத் தலைவர் பெரிய சிவப்பு பொத்தானை அழுத்தினால் அது ஆர்மகெடானை (பேரழிவை) ஏற்படுத்தக் கூடாது.

எல்லையில் திரளும் துருப்புக்களின் ஆழமான செயற்கைக்கோள் படங்கள் அதிக சிக்கலை ஏற்படுத்தாது. ஏனென்றால் பெரும்பாலான நாடுகள் தங்களுக்கென நம்பகமான பாதுகாப்பு வலையங்களைக் கொண்டுள்ளன.

இருப்பினும், Fun வீடியோக்களை உருவாக்குவதற்கு இன்னும் போதுமான இடம் உள்ளது. கடந்த ஆண்டு, எலோன் மஸ்க் ஒரு நேரடி இணைய நிகழ்ச்சியில் புகைபிடித்த நிகழ்வு காரணமாக டெஸ்லா பங்கு சரிந்தது.

அதே போல் டிசம்பரில், டொனால்ட் டிரம்ப் நேட்டோ கூட்டத்தில் இருந்து வீட்டிற்கு முன்னதாகவே பறந்து சென்றார், மற்ற உலகத் தலைவர்கள் அவரை கேலி செய்யும் உண்மையான காட்சிகள் வெளிவந்தன.

இது போன்ற நம்பத்தகுந்த டீப்ஃபேக்குகள் பங்கு விலைகளை மாற்றுமா? வாக்காளர்களை பாதிக்குமா? மற்றும் மத பதற்றத்தைத் தூண்டுமா? என்பதெல்லாம் போகப்போகத்தான் தெரியும்.  இது பாதுகாப்பான பந்தயம் போல் தெரியவில்லை.

அவர்கள் நம்பிக்கையை குலைப்பார்களா?

Deepfake Technologyடீப்ஃபேக்கின் நயவஞ்சகமான தாக்கம் ஊடகங்கள் மற்றும் செய்திகளின் மீது நம்பிக்கையற்ற சமூகத்தை உருவாக்கும் என்பதில் சந்தேகமில்லை.

மேலும் மக்கள் உண்மையைப் பொய்யிலிருந்து வேறுபடுத்தி பார்க்க முடியாது அல்லது அதனை பற்றி அவர்கள் கவலை படுவதில்லை எனும் நிலையை தான் ஏற்படுத்தும் என்பதில் ஐயமில்லை.

மேலும் நம்பிக்கை சிதைக்கப்படும்போது, குறிப்பிட்ட நிகழ்வுகளைப் பற்றிய சந்தேகங்களை எழுப்புவது எளிதாகிவிடும்.

கடந்த ஆண்டு, கேமரூனின் தகவல் தொடர்பு அமைச்சர், கேமரூனிய நாட்டின் ராணுவ வீரர்கள் பொதுமக்களை தூக்கிலிடுவதைக் காட்டும் காணொளியை அம்னெஸ்டி இன்டர்நேஷனல் வெளியிட்டதை போலிச் செய்தி என்று அந்த அமைச்சர் நிராகரித்தார்.

பதிவு செய்யப்பட்ட உரையாடலில் பெண்களின் பிறப்புறுப்பைப் பற்றிப் தவறாக பேசியதை ஒப்புக்கொண்ட டொனால்ட் டிரம்ப், பின்னர் டேப் உண்மையானது அல்ல என்று மறுத்துப்பேசினார்.

நியூகேஸ்டில் பல்கலைக்கழகத்தின் (Newcastle University) இணையச் சட்ட (Internet Law)த்தின் முன்னணி நிபுணரான பேராசிரியர் லிலியன் எட்வர்ட்ஸ் (Prof Lilian Edwards) கூறுகையில், “ஒரு போலியான விசயம் யதார்த்தமாக (உண்மை என) பார்க்கப்படும்போது, நம்பத்தகுந்த உண்மையான யதார்த்தம் மறுக்கக்கூடியதாக மாறுகிறது.” என்று சொல்கின்றார்.

நீதிக்கு சவாலாகலாம்

Deepfake Technology
Deepfake Technology

தொழில்நுட்பம் இலகுவாக அணுகக்கூடியதாக மாறும்போது, ​​டீப்ஃபேக்குகள் நீதிமன்றங்களுக்கு சிக்கலைக் அதிகப்படுத்தலாம்,

குறிப்பாக குழந்தைகளின் பாதுகாப்பு மற்றும் வேலைவாய்ப்பு தொடர்பான நீதி விசாரணைகளில் போலி நிகழ்வுகள் ஆதாரமாக காட்டப்படலாம்.

அவை தனிப்பட்ட பாதுகாப்பு அபாயத்தையும் ஏற்படுத்துகின்றன: டீப்ஃபேக்குகள் பயோமெட்ரிக் தரவைப் பிரதிபலிக்கும், மேலும் முகம், குரல், நரம்பு அல்லது நடை அங்கீகாரத்தை நம்பியிருக்கும் அமைப்புகளை ஏமாற்றலாம்.

மோசடிக்கான சாத்தியம் தெளிவாக உள்ளது. தெரியாத ஒருவருக்கு ஃபோன் செய்து, அவர்களுக்கு தெரியாத வங்கிக் கணக்கிற்கு பணத்தை மாற்ற வாய்ப்பில்லை.

ஆனால் உங்கள் “அம்மா” அல்லது “சகோதரி” வாட்ஸ்அப்பில் வீடியோ அழைப்பை அமைத்து அதே கோரிக்கையை செய்தால் என்ன செய்வது?

என்ன தீர்வு?

இது வேடிக்கையான, AI பதிலாக இருக்கலாம். செயற்கை நுண்ணறிவு (AI) ஏற்கனவே போலி வீடியோக்களைக் கண்டறிய உதவுகிறது என்பது உண்மை தான். ஆனால் தற்போதுள்ள பல கண்டறிதல் முறை கடுமையான பலவீனத்தைக் கொண்டுள்ளன.

அவை பிரபலங்களுக்குச் சிறப்பாகச் செயல்படுகின்றன, ஏனெனில் அவர்களின் பல மணிநேர வீடியோ காட்சிகள் இலவசமாகக் கிடைக்கும் அப்படி கிடைக்கும் காட்சிகளை கொண்டு AI க்கு பயிற்றுவிக்க முடியும்.

தொழில்நுட்ப நிறுவனங்கள் டீப்ஃபேக்குகளை கண்டறியும் முறைகளில் நிறைய மாற்றாங்கள் தேவை.

டீப்ஃபேக்குகள் தோன்றும் போதெல்லாம் கோடிட்டு காட்டும் வண்ணம் தற்போது செயல்பட்டாலும் அதில் இன்னும் மெறுகேற்றப்பட வேண்டும். மற்றொரு மூலோபாயம் ஊடகங்கள் தங்கள் ஆதாரத்தில் அதிக கவனம் செலுத்த வேண்டும்.

டிஜிட்டல் வாட்டர்மார்க்குகள் இல்லாமல் எந்த வீடியோவையும் யாரும் பரப்ப முடியாதவாறு செயல்படுத்தப்பட வேண்டும்.

ஆனால் ஒரு பிளாக்செயின் ஆன்லைன் லெட்ஜர் அமைப்பு வீடியோக்கள், படங்கள் மற்றும் ஆடியோவின் டேம்பர்-ப்ரூஃப் பதிவை வைத்திருக்க முடியும், எனவே அவற்றின் தோற்றம் மற்றும் ஏதேனும் கையாளுதல்களை எப்போதும் சரிபார்க்க முடியும்.

டீப்ஃபேக்குகளால் தீங்கு மட்டும் தானா?

இல்லவே இல்லை. பல பொழுதுபோக்கிற்காகவும் மற்றும் சில வேளைகளில் பயனுள்ளதாகவும் இருக்கும்.

குரல்-குளோனிங் டீப்ஃபேக்குகள் நோயால் மக்கள் இழக்கும் அவர்களின் குரல்களை மீட்டெடுக்க முடியும்.

டீப்ஃபேக் வீடியோக்கள் காட்சியகங்கள் மற்றும் அருங்காட்சியகங்களை உயிர்ப்பிக்கும்.

புளோரிடாவில், டாலி அருங்காட்சியகத்தில் சர்ரியலிஸ்ட் ஓவியர் தனது கலையை அறிமுகப்படுத்தி பார்வையாளர்களுடன் செல்ஃபி எடுத்துக்கொண்ட நிகழ்வுகளும் உண்டு.

பொழுதுபோக்குத் துறையைப் பொறுத்தவரை, வெளிநாட்டு மொழிப் படங்களின் டப்பிங்கை மேம்படுத்தவும், மேலும் சர்ச்சைக்குரிய வகையில், இறந்த நடிகர்களை உயிர்ப்பிக்கவும், இந்த தொழில்நுட்பத்தைப் பயன்படுத்தலாம்.

எடுத்துக்காட்டாக, மறைந்த ஜேம்ஸ் டீன், வியட்நாம் போர்த் திரைப்படமான ஃபைண்டிங் ஜாக்கில் நடிக்க உள்ளார்.

அதே போல் நமது தமிழ்நாட்டில் மறைந்த நடிகர் விவேக் மீண்டும் திரைக்கு வருகின்றார் என்பது குறிப்பிடத்தக்கது.

-அன்புடன்
முத்துப்பேட்டை அலீம்

எமது முந்தைய பதிவை படிக்க… Is Uniform Civil Code good for India? பொது சிவில் சட்டம் இந்தியாவிற்கு நல்லதா?

Author: VALAIYUGAM
நான் முஹம்மது அலீம், சமூகத்தின் அவலங்களையும், பிரச்சினைகளையும் களையவேண்டுமென்ற நோக்கில் செயலாற்றக்கூடியவன். சமுதாய அமைப்பில் பொருப்புவகித்தாலும், ஒருபக்க சார்பில்லாத நிலையில் அல்லாஹ் சொல்லும் நடுநிலையை பேணக்கூடியவன். சமூகத்தின் மத்தியில் விழிப்புணர்வை ஏற்படுத்தி சமூகத்தின் முன்னேற்றத்திற்காகவும், சமூகத்தின் குரலாகவும் ஒலிப்பதே இத்தளத்தின் நோக்கமாக கொண்டு எழுதுகின்றேன். இன்றில்லாவிட்டாலும் என்றாவது ஒருநாள் என் சமூகம் முன்னேறும், வெற்றி பெறும். இன்ஷா அல்லாஹ்...

2 thoughts on “Deepfake Technology – எதிர்கால சந்ததிகளின் வாழ்வை சீரழிக்குமா?

Leave a Reply

Your email address will not be published. Required fields are marked *