Home அரசியல் லோக்சபா தேர்தலின் போது டீப்ஃபேக்குகள் குறைவாக இருந்தன. AI ஆடியோ டிராக்குகள் மிகவும் பொதுவானவை

லோக்சபா தேர்தலின் போது டீப்ஃபேக்குகள் குறைவாக இருந்தன. AI ஆடியோ டிராக்குகள் மிகவும் பொதுவானவை

33
0

  • இந்தியாவில் சமீபத்தில் நடந்து முடிந்த கூட்டாட்சித் தேர்தல், செயற்கை நுண்ணறிவைப் பயன்படுத்தி உருவாக்கப்பட்ட தவறான தகவல்களைக் கண்காணிப்பவர்களுக்குப் பல படிப்பினைகளை அளித்துள்ளது.
  • தவறான தகவல் மற்றும் தவறான தகவல் ஆகியவை மிகப்பெரிய குறுகிய கால அபாயங்கள், படி உலகளாவிய அபாயங்கள் அறிக்கை 2024.
  • Deepfakes Analysis Unit (DAU) என்பது இந்தியாவில் உள்ள ஒரு தனித்துவமான ஆதாரமாகும், இது அதன் நம்பகத்தன்மையை சரிபார்க்க வாட்ஸ்அப் சேனல் வழியாக உள்ளடக்கத்தைப் பகிர பொதுமக்களை அனுமதிக்கிறது.

டிசமீபத்திய கூட்டாட்சித் தேர்தலின் போது இந்தியாவைச் சூழ்ந்திருந்த உற்சாகம் தணிந்துவிட்டது, ஆனால் AI- உருவாக்கிய தவறான தகவல்களின் எழுச்சியைக் கண்காணிப்பவர்களுக்கு மதிப்புமிக்க படிப்பினைகள் உள்ளன. உலகப் பொருளாதார மன்றத்தில் கோடிட்டுக் காட்டப்பட்டுள்ளபடி, அடுத்த இரண்டு ஆண்டுகளில் பல பெரிய பொருளாதாரங்களில் தேர்தல்கள் நடைபெறவுள்ள நிலையில், தவறான தகவல் அல்லது தவறான தகவல் மற்றும் சமூக அமைதியின்மை ஆகியவற்றுக்கு இடையேயான தொடர்பு மையக் கட்டத்தை எடுக்கும். உலகளாவிய அபாயங்கள் அறிக்கை 2024.

தி டீப்ஃபேக்ஸ் பகுப்பாய்வு பிரிவு (DAU) – கீழ் அமைக்கப்பட்டுள்ளது தவறான தகவல் போர் கூட்டணி – ஒரு தனித்துவமான வளமாகும், இது இந்தியாவில் உள்ள பொதுமக்களுடன் ஒரு மூலம் ஈடுபடுகிறது வாட்ஸ்அப் டிப்லைன். செயற்கை நுண்ணறிவால் உருவாக்கப்பட்டதாக சந்தேகிக்கப்படும் தவறான அல்லது தீங்கு விளைவிக்கும் ஆடியோ மற்றும் வீடியோ உள்ளடக்கத்தை முழுமையாகவோ அல்லது பகுதியாகவோ பகிர பயனர்களை இது அனுமதிக்கிறது.

இந்தத் திட்டம் இந்தியத் தேர்தலுக்கான முதல் கட்ட வாக்குப்பதிவுக்கு ஒரு மாதத்திற்குள் மார்ச் 2024 இல் தொடங்கப்பட்டது. அப்போதிருந்து, டிப்லைன் படங்களைத் தவிர்த்து நூற்றுக்கணக்கான தனித்துவமான ஆடியோ மற்றும் வீடியோ கோப்புகளைப் பெற்று மதிப்பாய்வு செய்துள்ளது. நாங்கள் பெற்ற உள்ளடக்கத்தின் பெரும்பகுதியை வீடியோக்கள் உருவாக்குகின்றன, மேலும் AI இன் பயன்பாடு பல்வேறு அளவுகளில் கண்டறியப்பட்டுள்ளது.

பல்வேறு வகையான செயற்கை ஊடகங்கள் யாவை?

DAU இன் பணி வழிநடத்தப்படுகிறது வளர்ந்து வரும் வரையறைகளின் தொகுப்புஆடியோ மற்றும் வீடியோ உள்ளடக்கத்தை ‘டீப்ஃபேக்’ (AI ஐப் பயன்படுத்தி உருவாக்கப்பட்டது), ‘சீப்ஃபேக்’ (அடிப்படை எடிட்டிங் மென்பொருளைப் பயன்படுத்தி உருவாக்கப்பட்டது), ‘கையாளப்பட்டது’ அல்லது ‘AI-உருவாக்கம்’ என வகைப்படுத்த உதவுகிறது, ஒவ்வொரு வகையிலும் AI எவ்வாறு உருவாக்கப்படுகிறது என்பதைக் குறிக்கிறது. ஒரு உள்ளடக்கத்தில்.

AI-உருவாக்கப்பட்ட அனைத்தும் ஆழமான போலியானவை அல்ல ஏனெனில் அது தீங்கு விளைவிப்பதாகவோ அல்லது தவறாக வழிநடத்துவதாகவோ இல்லாமல் இருக்கலாம், மேலும் இது குறிப்பிட்ட பொருளின் ஒப்புதலுடன் தயாரிக்கப்பட்டிருக்கலாம். டீப்ஃபேக்குடன் ஒப்பிடும்போது மலிவான போலியின் உற்பத்தித் தரம் மோசமாக உள்ளது, இது உண்மையான உள்ளடக்கத்தை எளிதில் தவறாகப் புரிந்து கொள்ளலாம்.

செயற்கை ஊடகங்களால் குறிவைக்கப்படுவது யார்?

அரசியல்வாதிகள், முக்கிய வணிக நபர்கள், நடிகர்கள் மற்றும் செய்தி அறிவிப்பாளர்கள் ஆகியோர் AI ஐப் பயன்படுத்தி வீடியோ மற்றும் ஆடியோவை கையாள அல்லது தயாரிக்கும் மோசமான நோக்கங்களைக் கொண்டவர்களின் முக்கிய இலக்குகள் என்பதை எங்கள் பகுப்பாய்வு காட்டுகிறது. நன்கு அறியப்பட்ட முகங்களைப் பயன்படுத்தி தவறான தகவல்களை பேக்கேஜிங் செய்வது, நிதி மோசடிகளை ஊக்குவிக்கும் வீடியோக்களில் வணிகத்தில் உள்ளவர்களைக் காட்டுவது போன்ற, மக்கள் அதில் விழுவதற்கான வாய்ப்பை அதிகரிக்கலாம்.

சில சந்தர்ப்பங்களில், AI கருவிகளைப் பயன்படுத்தி பாடங்களின் உதடு அசைவுகள் மாற்றப்பட்டன, இதனால் செயற்கை பேச்சு அவர்களின் உதடு அசைவுகளுடன் சரியாக இல்லாவிட்டாலும் பொருந்தும். இந்த கருத்து “லிப்-சின்க் டீப்ஃபேக்” என்று குறிப்பிடப்படுகிறது – சில நேரங்களில் இது AI ஐப் பயன்படுத்தி பொருளின் வாயை மீண்டும் உருவாக்குவதை உள்ளடக்கியது. மங்கலான உதடுகள் அல்லது மாற்றப்பட்ட பற்கள் நம்பகத்தன்மையை சரிபார்க்க வீடியோக்களை பகுப்பாய்வு செய்யும் போது பார்க்க வேண்டிய சில அறிகுறிகளாகும்.

பாலிவுட் திரைப்படங்களில் இருந்து அரசியல்வாதிகள் பேசும் டயலாக்குகளை உருவாக்க குறைந்த அதிநவீன AI கருவிகளைப் பயன்படுத்திய பல வீடியோக்களை டிப்லைன் மூலம் நாங்கள் பெற்றுள்ளோம். வேறு சில எடுத்துக்காட்டுகளில் பாலிவுட் நடிகர்களின் முகங்களை அரசியல்வாதிகளின் முகங்களுடன் கலப்பது அல்லது மாற்றுவது ஆகியவை அடங்கும், அதே நேரத்தில் அசல் வீடியோவின் மற்ற கூறுகளைத் தக்கவைத்துக்கொள்ளலாம்.

டீப்ஃபேக்கை எப்படிக் கண்டறிவது?

பயனர்கள் ஒவ்வொரு முறையும் டிப்லைனுடன் இணைக்கும் போது, ​​சந்தேகத்திற்குரிய ஆடியோ அல்லது வீடியோவைப் பகுப்பாய்விற்காகப் பகிர ஒரு போட் வழிகாட்டுகிறது; செயல்பாட்டில், செயற்கை ஊடகத்தை அடையாளம் காண சில குறிப்புகள் மற்றும் தந்திரங்களையும் அவர்கள் கற்றுக்கொள்ளலாம் குறுகிய வீடியோக்கள் நான்கு மொழிகளில் (ஆங்கிலம், ஹிந்தி, தமிழ் மற்றும் தெலுங்கு).

டிப்லைனுக்கு அனுப்பப்படும் ஒவ்வொரு ஆடியோ மற்றும் வீடியோவையும் அதன் நம்பகத்தன்மையை சரிபார்க்க DAU கவனமாக மதிப்பாய்வு செய்கிறது. AI இன் ஏதேனும் உறுப்பு சந்தேகப்பட்டால், DAU ஏற்கனவே இருக்கும் மற்றும் ஆய்வு கூட்டாண்மைகள் மற்றும் சில இலவச கருவிகள் மூலம் கிடைக்கும் பல AI கண்டறிதல் கருவிகளைப் பயன்படுத்துகிறது.

குறைந்தபட்சம் மூன்று கருவிகளாவது அந்த உள்ளடக்கத்தில் AI கையாளுதலைக் குறிப்பிட்டால், DAU அதை அதன் நிலைக்கு உயர்த்துகிறது. தடயவியல் மற்றும் கண்டறிதல் பங்காளிகள் நிபுணர் பகுப்பாய்வு பெற. அந்த பகுப்பாய்வு பெறப்பட்டவுடன், DAU ஒரு உற்பத்தி செய்கிறது மதிப்பீட்டு அறிக்கை, அதை அதன் இணையதளத்தில் வெளியிடுகிறது, மேலும் ஆடியோ அல்லது வீடியோவை டிப்லைனுக்கு சமர்ப்பித்த பயனருக்கு அறிக்கையை அனுப்புகிறது. இந்த விரிவான அறிக்கைகள் உள்ளடக்கத்தை செயற்கை அல்லது உண்மையானவை என அடையாளம் காண்பதன் மூலம் பொதுப் பதிவைச் சரிசெய்கிறது. இந்த அறிக்கைகளின் வழிமுறையில் செயற்கை மீடியாவை எவ்வாறு கண்டறிவது என்பது பற்றிய ஒரு செயலிழப்பு பாடமாகும்.

டீப்ஃபேக்குகளை நிறுத்த என்ன செய்யலாம்?

ஒத்துழைப்பு என்பது DAU இன் செயல்படும் திறனை ஆதரிக்கும் அடித்தளமாகும். எங்கள் பகுப்பாய்வை எங்களுடன் பகிர்ந்து கொள்ளும்போது பங்குதாரர் உண்மை சரிபார்ப்பவர்கள்—இந்தியாவில் பல மொழிகளில் பணிபுரியும் 12 ஊடக நிறுவனங்களை உள்ளடக்கியது—டிப்லைன் பயனர்களுக்கு நாங்கள் அனுப்பும் மதிப்பீடுகளில் அவர்களின் உண்மைச் சரிபார்ப்புகளையும் சேர்த்துக் கொள்கிறோம், ஏனெனில் DAU இன் ஆணை சரிபார்ப்பதே தவிர உண்மைச் சரிபார்ப்பு அல்ல.

உள்ளடக்க மொழிபெயர்ப்புகளுக்கும் பிராந்திய தவறான தகவல் போக்குகளை அளவிடுவதற்கும் எங்கள் கூட்டாளர்களின் நிபுணத்துவத்தை நாங்கள் நம்பியுள்ளோம்.

இந்தியாவிலும் உலக அளவிலும் உண்மைச் சரிபார்ப்பு சுற்றுச்சூழலுக்கு பங்களிக்கும் வகையில், எங்கள் கூட்டாளர்களின் பட்டியலை வளர்ப்பதே எங்கள் நோக்கம். எங்கள் கூட்டு அணுகுமுறையின் தாக்கத்தை நாங்கள் பார்க்கத் தொடங்குகிறோம் – எடுத்துக்காட்டாக, எங்கள் அதிகரிப்புகள் லெவன் லேப்ஸ் தவறான தகவல்களைப் பரப்புவதற்காக செயற்கைக் குரல்களை உருவாக்கத் தங்கள் கருவிகளைத் தவறாகப் பயன்படுத்திய பயனர்களின் தொடர்களைத் தடை செய்ய வழிவகுத்தது.

இதுவரை கற்றுக்கொண்ட பாடங்கள்?

தேர்தல் சுழற்சியின் போது, ​​குறைவான டீப்ஃபேக்குகளைப் பார்த்தோம், ஆனால் செயற்கை ஆடியோ டிராக்குகளைப் பயன்படுத்தி அதிகமான வீடியோக்கள் கையாளப்பட்டன. AI குரல்களைப் பயன்படுத்திய பல மலிவான போலிகளும் இருந்தன, ஆனால் காட்சி கூறுகளுக்கு உருவாக்கும் AI ஐப் பயன்படுத்தவில்லை. இந்த மலிவான போலிகள் தவறான தகவல்களின் பரவலான திரிபு, அவை எதிர்த்துப் போராட வேண்டும்.

AI-ஐப் பயன்படுத்தி உருவாக்கப்படும் ஆடியோ, முழுமையாகவோ அல்லது பகுதியாகவோ, AI-உருவாக்கிய பேச்சைத் துல்லியமாக அடையாளம் காணும் கருவிகள் சில நேரங்களில் அவற்றின் திறனில் குறைவாக இருப்பதால், குறிப்பாக பின்னணி இரைச்சல் அல்லது இசை ஆடியோ டிராக்குடன் கலந்திருந்தால், அடையாளம் காண்பது மிகவும் கடினம். தனித்து நிற்கும் ஆடியோ அல்லது வீடியோவின் ஒரு பகுதியாக இருக்கும் டிராக்கிற்கு இது பொருந்தும்.

AI-உருவாக்கிய உள்ளடக்கத்தைக் கண்டறிந்து லேபிளிடுவதற்கான சிறந்த நடைமுறைகள் குறித்த டிப்லைன் பயனர்களுக்குக் கல்வி கற்பிப்பதையும், பொதுப் பேச்சுக்கு பங்களிப்பதையும் நோக்கமாகக் கொண்டுள்ளோம். கல்வியாளர்கள், கண்டறிதல் வல்லுநர்கள் மற்றும் சமூக ஊடகத் தளங்கள் வரையறைகளை எவ்வாறு தரப்படுத்துவது என்பது குறித்த தங்கள் கருத்தைப் பகிர்ந்து கொள்ள அழைக்கிறோம். ஒருவேளை “ஆன்லைன் தீங்குகளின் வகைப்பாடு”, டிஜிட்டல் பாதுகாப்பிற்கான குளோபல் கூட்டணியால் உருவாக்கப்பட்டது, தீங்கு விளைவிக்கும் மற்றும் தவறாக வழிநடத்தும் AI-உருவாக்கும் உள்ளடக்கத்திற்கு எதிராக விரைவான நடவடிக்கைக்காக அத்தகைய உள்ளடக்கத்தை லேபிளிடுவதில் உலகளாவிய தொழில்துறை தரத்தை உருவாக்குவதற்கான ஒரு குறிப்பாக செயல்படும்.

DAU இல் நாம் கற்கும் பாடங்கள் வரவிருக்கும் காலத்தில் முக்கியமானதாக இருக்கும் இந்தியாவில் மாநில தேர்தல்கள்AI கையாளுதலின் அச்சுறுத்தல், மொழி பன்முகத்தன்மை மற்றும் உள்ளூர் சூழலால் ஏற்படும் தவறான தகவல் சவால்களை மட்டுமே பெரிதாக்குகிறது.

தேர்தலுக்கான இந்த “சூப்பர் ஆண்டில்”, தேர்தல் சுழற்சியின் போது AI எவ்வாறு தவறாகப் பயன்படுத்தப்படலாம் என்பதைப் புரிந்துகொள்வதில் ஆர்வமுள்ள உலகெங்கிலும் உள்ள பல நாடுகளுக்கும் பாடங்கள் பயனளிக்கும். ப்ளேபுக் அப்படியே உள்ளது: மோசமான நடிகர்கள் AI ஐப் பயன்படுத்தி தீங்கு விளைவிக்கவும் தவறாக வழிநடத்தவும் செய்கிறார்கள், அதிநவீன AI தொழில்நுட்பத்தை அணுகுவதே ஒரே வித்தியாசம்.

இது கட்டுரை முன்பு உலக பொருளாதார மன்றத்தில் தோன்றினார்.

ஆதாரம்