போலி செய்திகளை எதிர்த்துப் போராடும் தொழில்நுட்பங்கள்

நூலாசிரியர்: Laura McKinney
உருவாக்கிய தேதி: 3 ஏப்ரல் 2021
புதுப்பிப்பு தேதி: 1 ஜூலை 2024
Anonim
போலி செய்திகள்  திட்டமிட்டு ஒருங்கிணைப்புடன் பரப்பப்படுகிறது - நடிகர் பிரகாஷ்ராஜ்
காணொளி: போலி செய்திகள் திட்டமிட்டு ஒருங்கிணைப்புடன் பரப்பப்படுகிறது - நடிகர் பிரகாஷ்ராஜ்

உள்ளடக்கம்


ஆதாரம்: ரைட்ஸ்டுடியோ / ட்ரீம்ஸ்டைம்.காம்

எடுத்து செல்:

போலி செய்திகள் மக்களை நம்பும் பொய்யாகக் கையாள முயற்சிக்கின்றன, சமூக ஊடகங்களில் கிளிக்குகளை அதிகரிப்பது முதல் தேர்தல்களில் செல்வாக்கு செலுத்துவது வரையிலான காரணங்களுக்காக. ஆனால் தொழில்நுட்பம் அதை அடையாளம் காணவும் நிறுத்தவும் புதிய உத்திகளுடன் போராடுகிறது.

கடந்த சில ஆண்டுகளில், "போலி செய்தி" என்ற சொற்றொடர் ஒரு புதிய பொருளைப் பெற்றுள்ளது, ஏனெனில் இது அரசாங்க சதித்திட்டங்கள், பொது பிரச்சாரம், டீனேஜ் இணைய சேட்டைகள் மற்றும் தவறான விளம்பரங்களிலிருந்து வரும் அனைத்து வகையான தவறான தகவல்களையும் ஒன்றிணைத்துள்ளது. வேறு வார்த்தைகளில் கூறுவதானால், எல்லா வகையான தகவல்களும் உடனடியாக அணுகக்கூடிய உலகில் நாம் வாழ்ந்தாலும், உண்மைக்கும் பொய்களுக்கும் இடையிலான கோடு ஒருபோதும் இருண்டதாக இல்லை.

வரலாறு இந்த "குப்பைக் கதைகளால்" நிரம்பியுள்ளது, அவற்றில் சில பண்டைய எகிப்தைப் போலவே பழமையானவை. கிமு 13 ஆம் நூற்றாண்டில், பாரே ரமேசஸ் தி கிரேட், காதேஷ் போரை தனது இராணுவத்திற்கு ஒரு அதிர்ச்சியூட்டும் வெற்றியாக பொய்யாக சித்தரித்தார், அது உண்மையில் ஹிட்டியர்களுக்கு எதிரான ஒரு முட்டுக்கட்டையில் முடிந்தது என்று உங்களுக்குத் தெரியுமா? உங்கள் பதில் (கிட்டத்தட்ட நிச்சயமாக) "இல்லை," என்றால், நானும் செய்யவில்லை. சில வினாடிகளுக்கு மேல் விரைவாகத் தேடிய பிறகு நான் அதை விக்கிபீடியாவில் படித்தேன் - எனவே இது ஒரு போலி கதையும் அல்ல என்று நம்புகிறேன்.


மக்களை தவறாக வழிநடத்த, சில சமயங்களில் நேர்மையற்ற சில அரசியல்வாதிகளுக்கு வாக்களிப்பதற்காகவும் தயாரிக்கப்பட்டுள்ள தீய தொழில்நுட்பங்களுக்கு நன்றி செலுத்துவதன் மூலம், புதிய குப்பை செய்திகள் நாளுக்கு நாள் வெளியிடப்படுவதால், இன்று எங்களுக்கு ஒரு பிரச்சினை கிடைத்தது. ஆனால், ஏய், பயப்படத் தேவையில்லை. நல்ல செய்தி (தண்டனைக்கு மன்னிப்பு) அதுதான் மற்ற போலிச் செய்திகளைக் கையாள்வதற்கும், அது உண்மையில் சொந்தமான இடத்தில் - குப்பைத் தொட்டியில் வைப்பதற்கும் தொழில்நுட்பங்கள் வகுக்கப்படுகின்றன. (உலகளாவிய வலையின் அடுத்த மறு செய்கை போலி செய்திகளைக் கட்டுப்படுத்த உதவும் என்று சிலர் நினைக்கிறார்கள். தொழில்நுட்ப நிபுணர்களிடமிருந்து நேராக மேலும் அறிக: வலை 3.0 இன் வரையறுக்கும் அம்சம் என்னவாக இருக்கும்?)

இயந்திரத்திற்கு எதிரான ஆத்திரம் (கற்றல்)

போலி செய்திகளைப் பரப்புவதற்கான பொதுவான வழிகளில் ஒன்று அதிக எண்ணிக்கையிலான போட்களைப் பயன்படுத்துவதாகும். சமூக ஊடகங்களில் தெரிவுநிலையை விநியோகிக்க அல்லது அதிகரிக்கும்போது தன்னியக்கவாக்கலுக்கான சாத்தியங்கள் மகத்தானவை. போட்களை எண்ணற்ற முறை பகிர, கருத்து தெரிவிக்க அல்லது விரும்புவதற்கும், உள்ளடக்கத்தின் பதிவை அதிகரிப்பதற்கும், பெரும்பாலான சமூக ஊடக தளங்கள் கட்டமைக்கப்பட்ட அதே விதிகளைப் பயன்படுத்துவதன் மூலம் ஏராளமான மக்களைச் சென்றடைவதற்கும் போட்களை திட்டமிடலாம்.


எனவே, அவற்றின் தடங்களில் போட்களை நிறுத்துவது, தொற்றுநோயைக் கட்டுப்படுத்துவதற்கான மிகச் சிறந்த வழிகளில் ஒன்றாகும், ஆனால் கேள்வி அப்படியே உள்ளது - ஒரு போட்டை நீங்கள் எவ்வாறு அடையாளம் கண்டு மனிதர்களுக்கும் இயந்திரங்களுக்கும் இடையிலான வித்தியாசத்தை எப்படிச் சொல்ல முடியும்? மற்ற மனிதர்களுக்கு இது மிகவும் எளிமையானது, ஆனால் எந்தவொரு தகவல் தொழில்நுட்பத் துறையும் போட்களின் இராணுவத்தைப் பிடிக்கத் தேவையான அளவை எட்ட முடியவில்லை. வெளிப்படையாக அதன் சொந்த போட் எதிர்ப்பு தொழில்நுட்பத்தை உருவாக்கியது, ஆனால் அதன் செயல்பாடு குறித்த முழு விவரங்களையும் ஒருபோதும் விளக்கவில்லை. தி நியூயார்க் டைம்ஸுடன் கடந்த ஒரு நேர்காணலின் போது, ​​மாசிடோனிய போலி-செய்தி-இலாப நோக்கற்ற வணிகங்களிலிருந்து வரும் "போலி கணக்குகள் மற்றும் தவறான செய்திகளை அடையாளம் காண சில புதிய AI கருவிகளை அவர்கள் பயன்படுத்தினர்" என்று மார்க் ஜுக்கர்பெர்க் வெறுமனே வெளிப்படுத்தினார்.

போட்களை அடையாளம் காண பயன்படுத்தப்படும் உண்மையான முறைகளைச் சுற்றி இன்னும் சில ஊகங்கள் இருந்தாலும், இந்த ஸ்பேமி கணக்குகளில் பெரும்பாலானவை செயற்கை என அடையாளம் காணப்படலாம், ஏனெனில் அவை அனைத்தும் விளக்கக்காட்சி மற்றும் நேரத்தில் சில ஒற்றுமையைப் பகிர்ந்து கொள்கின்றன. ஆன்டி-போட் மென்பொருளானது தரவு பகுப்பாய்வுகளைப் பயன்படுத்துவதன் மூலம் இந்த வடிவங்களை அடையாளம் காணலாம், பின்னர் அவற்றை மேலும் விசாரணைக்கு கொடியிடலாம். எந்த கணக்குகள் போட்களைத் தவிர வேறொன்றுமில்லை என்பதைத் தீர்மானிக்க பயோமெட்ரிக் அங்கீகாரமும் பயன்படுத்தப்படுகிறது, மேலும் சிக்கலை அதன் மூலத்தில் நிறுத்தவும்.

டெல் மீ லைஸ், டெல் மீ ஸ்வீட் லிட்டில் லைஸ்

இந்த சிக்கலை வேரறுக்க மற்றொரு அணுகுமுறை போலி செய்திகளைக் கையாள்வது - இது சில போட்களைக் கொல்வதை விட மிகவும் சிக்கலானது. பல்வேறு முயற்சிகள் இருந்தபோதிலும், இதுவரை AI பல நிலைகளில் தோல்வியுற்றது, ஏனென்றால் மனிதர்கள் எழுதுவதை மனிதர்கள் புரிந்துகொள்ள முடியாது. கோட்பாட்டில், கதையை எழுதும் போது பயன்படுத்தப்படும் தொனி, உணர்வு மற்றும் பாணி போன்ற "நிலைப்பாடு" கட்டுரைகளைக் கண்டறிவதற்கும், தகவல் தவறானதா அல்லது அப்பட்டமாக தவறானதா என்பதைத் தீர்மானிப்பதற்கும் இயந்திரம் கற்பிக்கப்படுகிறது. உள்ளடக்கம், URL மற்றும் தலைப்பு அமைப்பு மற்றும் செய்திகளை வெளியிட்ட வலைத்தளம், அதன் வலை போக்குவரத்து, கணக்கு மற்றும் சமூக ஊடகங்களில் ஒட்டுமொத்த ஈடுபாடு பற்றிய ஆழமான பகுப்பாய்வை AI செய்யும். இருப்பினும், முடிவுகள் குறிப்பாக ஊக்கமளிக்கவில்லை, வெற்றி நிலை சுமார் 65 சதவிகிதம். விளைவுகளைச் செம்மைப்படுத்தவும், கண்டுபிடிப்புகளை சரிபார்க்கவும் மனிதர்கள் இன்னும் தேவைப்படுகிறார்கள், எனவே முழு அமைப்பும் இன்னும் ஆரம்ப நிலையில் உள்ளது. தொனியின் நுணுக்கங்கள், கலாச்சார கான் அல்லது சில நல்ல பழைய நகைச்சுவை போன்ற சில விஷயங்கள் புரிந்துகொள்ளும் இயந்திரங்களின் திறனுக்கு அப்பாற்பட்டவை.

இருப்பினும், வீடியோக்கள் முற்றிலும் மாறுபட்ட நிலையில் உள்ளன. ஜெனரேடிவ் விரோரியல் நெட்வொர்க் (GAN) போன்ற மிகவும் தந்திரமான இயந்திர கற்றல் தொழில்நுட்பங்கள் பராக் ஒபாமா போன்றவர்களின் வியக்கத்தக்க யதார்த்தமான வீடியோக்களை உருவாக்க முடியும், அவர் ஒருபோதும் சொல்லாத நிறைய விஷயங்களைச் சொல்கிறார். சரியான தொழில்நுட்பங்களுடன், ஒரு போலி படத்தை உருவாக்குவது இப்போது அவ்வளவு எளிதானது அல்ல. இந்த "ஆழமான போலிகளுக்கு" எதிராக போராடும் கலிபோர்னியா பல்கலைக்கழகத்தின் கணினி அறிவியல் பேராசிரியர் ஹனி ஃபரிட் விளக்கமளித்தபடி, "தொழில்நுட்பம் ஜனநாயகமயமாக்குகிறது." ஆனால், குறைந்தபட்சம் இந்த நேரத்தில், பிற இயந்திரங்கள் மனித முகத்தில் பயன்படுத்தப்படும் இந்த கண்ணுக்கு தெரியாத மாற்றங்களைக் கண்டறிந்து போலி வீடியோக்களைக் கண்டறிய முடியும். உண்மையில், இந்த AI மனிதனின் கண் ஒருபோதும் பிடிக்காத விவரங்களைத் தேடலாம், அதாவது சிறிய ஒளி மாற்றங்கள், ஒளிரும் பற்றாக்குறை, அல்லது இதய துடிப்புடன் ஒத்திருக்கும் முகத்தில் வண்ண மாற்றங்கள். இருப்பினும், இந்த திட்டங்களில் பணிபுரியும் விஞ்ஞானிகள் வெளிப்படையான காரணங்களுக்காக அவர்களின் சிறந்த உத்திகளை ரகசியமாக வைத்திருக்க வேண்டும்.

பிழைகள் இல்லை, மன அழுத்தமும் இல்லை - உங்கள் வாழ்க்கையை அழிக்காமல் வாழ்க்கையை மாற்றும் மென்பொருளை உருவாக்குவதற்கான படி வழிகாட்டியின் படி

மென்பொருள் தரத்தைப் பற்றி யாரும் அக்கறை கொள்ளாதபோது உங்கள் நிரலாக்க திறன்களை மேம்படுத்த முடியாது.

பிளாக்செயினுடன் பொய்களின் சங்கிலியைத் தடுப்பது

ஒவ்வொரு நவீன பிரச்சினைக்கும் பிளாக்செயின் தீர்வுகளை வழங்கி வருகிறது. பல விஷயங்களில் (அதில் பிட்காயின் அடங்கும்), இந்த நம்பமுடியாத பல்துறை தொழில்நுட்பத்தால் முடியும் மேலும் போலிச் செய்திகள் நம் சமுதாயத்தில் ஏற்படுத்தியிருக்கும் காயத்தைத் தடுக்க பயன்படுத்தப்பட வேண்டும். பிளாக்செயின், உண்மையில், செய்தி உலகிற்கு மிகவும் தேவைப்படும் வெளிப்படைத்தன்மையையும் பொறுப்புணர்வையும் வழங்க முடியும். முதலாவதாக, ஒவ்வொரு கட்டுரையின் தோற்றம் மற்றும் உள்ளடக்கத்தின் பகுதியையும், அதைப் பின்தொடர்ந்தவர்கள் யார், எங்கே போன்ற அதன் அடுத்தடுத்த படிகளையும் கண்காணிக்க இது உதவும்.

இரண்டாவதாக, தரமான உள்ளடக்கத்தை வழங்குவதை விட பார்வைகளை உருவாக்குவதை அடிப்படையாகக் கொண்ட தற்போதைய பணமாக்குதல் அமைப்பில் புரட்சியை ஏற்படுத்த இது உதவும். அதிக பணம் சம்பாதிப்பவர்கள் தங்கள் உள்ளடக்கத்தை அதிக இடங்களில் பகிர்ந்து கொள்ளக்கூடியவர்கள் - இது ஒரு கட்டுரை எச்சரிக்கை உரிமைகோரல்களால் நிரம்பியதும், சதி கோட்பாடுகளால் நிரப்பப்பட்டதும், பயமுறுத்தும் தந்திரங்களால் மேம்படுத்தப்பட்டதும் மிகவும் எளிதானது. நம்பகமான மற்றும் உண்மை சரிபார்க்கப்பட்ட தகவல்களை உருவாக்க ஆசிரியர்களை ஊக்குவிக்க கிரிப்டோகாயின்கள் பயன்படுத்தக்கூடிய ஊடக தளங்கள் தங்களது சொந்த நீடித்த பொருளாதாரங்களை உருவாக்க பிளாக்செயின் உதவக்கூடும். உள்ளக தரவு குறியாக்கம், அடையாள சரிபார்ப்பு மற்றும் எந்தவொரு எழுத்தாளரின் சார்புகளையும் சரிபார்க்க எந்தவொரு பகுதியையும் முழுமையாகக் கண்டுபிடிப்பது ஆகியவை இங்குள்ள கேக்கின் ஐசிங் மட்டுமே. (பிளாக்செயின் பற்றிய மேலும் தகவலுக்கு, நீங்களும் நானும் வணிகம் செய்யும் வழியை பிளாக்செயின் எவ்வாறு மாற்றுகிறது என்பதைப் பார்க்கவும்.)

பூதத்திற்கு உணவளிக்க வேண்டாம்

தீவிரமாக, வேண்டாம். நீங்கள் செய்தால் அவர் மிகப்பெரியதாக வளரப் போகிறார். இதன் முக்கிய அம்சம் என்னவென்றால், வளர்ந்து வரும் தவறான கதைகளைத் தடுக்க இயந்திரங்களும் தொழில்நுட்பங்களும் நமக்கு உதவக்கூடும் என்றாலும், இறுதியில் நாம் கண்களை வைக்கும் எல்லாவற்றையும் கவனமாகப் படிப்பது நமது பொறுப்பு. எல்லாவற்றிற்கும் மேலாக, நாகரிகம் தோன்றியதிலிருந்தே மக்கள் மற்றவர்களிடம் பொய்களைக் கூறி வருகிறார்கள், ஆனால் (எனக்குத் தெரிந்தவரை) பண்டைய எகிப்தியர்களுக்கு அப்போது ஒரு AI இல்லை, பொய்களிலிருந்து உண்மையை பிரிக்க அவர்களுக்கு உதவுகிறது.

நாம் அனைவருக்கும் சில வினாடிகள் செலவழிக்க மனநல திறமைகள் உள்ளன ஒரு இரண்டாவதாக, நாம் படித்தவற்றின் ஆதாரங்களை சரிபார்க்கவும். எங்களுக்கு உதவ தொழில்நுட்பங்களுடன் அல்லது இல்லாமல், அடுத்த முறை நீங்கள் ஒரு வெளிப்படையான பொய்யை நம்புவதை முடிக்கும்போது, ​​இது உங்கள் தவறு என்பதையும் மறந்துவிடாதீர்கள்.