AI க்கள் சிலவற்றைச் செய்ய வேண்டும்

நூலாசிரியர்: Roger Morrison
உருவாக்கிய தேதி: 28 செப்டம்பர் 2021
புதுப்பிப்பு தேதி: 19 ஜூன் 2024
Anonim
Non-linear planning
காணொளி: Non-linear planning

உள்ளடக்கம்


ஆதாரம்: Sdecoret / Dreamstime.com

எடுத்து செல்:

AI அமைப்பின் வெளியீட்டை நம்புவதற்கு, அதன் செயல்முறைகளைப் புரிந்துகொள்வதும், அதன் முடிவுகளுக்கு அது எவ்வாறு வந்தது என்பதை அறிந்து கொள்வதும் அவசியம். எந்தவொரு சாத்தியமான சார்புகளையும் நீக்குவதற்கு விளக்கக்கூடிய AI முக்கியமாகும்.

AI ஐ நம்ப முடியுமா? அதன் கண்டுபிடிப்புகள் கேள்வியின்றி புறநிலை ரீதியாக செல்லுபடியாகும் என்பதை நீங்கள் ஏற்க வேண்டுமா? பிரச்சனை என்னவென்றால், AI ஐ கேள்வி கேட்பது கூட தெளிவான பதில்களை அளிக்காது.

AI அமைப்புகள் பொதுவாக ஒரு கருப்பு பெட்டியைப் போலவே இயங்குகின்றன: தரவு உள்ளீடு, மற்றும் தரவு வெளியீடு, ஆனால் அந்த தரவை மாற்றும் செயல்முறைகள் ஒரு மர்மம். அது இரு மடங்கு சிக்கலை உருவாக்குகிறது. ஒன்று, எந்த வழிமுறைகளின் செயல்திறன் மிகவும் நம்பகமானது என்பது தெளிவாகத் தெரியவில்லை. மற்றொன்று, புறநிலையான முடிவுகளை அமைப்புகளை நிரல் செய்யும் மனிதர்களின் மதிப்புகள் மற்றும் சார்புகளால் திசைதிருப்ப முடியும். இதனால்தான் இதுபோன்ற அமைப்புகள் பயன்படுத்தும் மெய்நிகர் சிந்தனை செயல்முறைகளுக்கு வெளிப்படைத்தன்மை தேவை, அல்லது “விளக்கக்கூடிய AI”.


மொத்த உள்நாட்டு உற்பத்தியில் உட்பட்ட எவருக்கும் நெறிமுறை கட்டாயமானது சட்டபூர்வமான ஒன்றாக மாறியுள்ளது, இது ஐரோப்பிய ஒன்றியத்தை அடிப்படையாகக் கொண்ட வணிகங்களை மட்டுமல்ல, அங்குள்ள மக்கள் அல்லது அமைப்புகளுடன் பரிவர்த்தனை செய்யும் எதையும் பாதிக்கிறது. தரவு பாதுகாப்பு குறித்த பல விதிகள் இதில் உள்ளன, அவை ஐரோப்பிய ஒன்றிய குடிமக்களுக்கு “சில சூழ்நிலைகளைத் தவிர, தானியங்கி முடிவெடுப்பிற்கு மட்டுமே உட்பட்டிருக்கக் கூடாது” மற்றும் “முடிவில் சம்பந்தப்பட்ட தர்க்கத்தைப் பற்றிய அர்த்தமுள்ள தகவல்களை வழங்குவதற்கான உரிமை . "

வேறு வார்த்தைகளில் கூறுவதானால், “வழிமுறை உங்கள் விண்ணப்பத்தை நிராகரித்தது” என்று சொல்வது போதாது. மக்களின் வாழ்க்கையில் தாக்கத்தை ஏற்படுத்தும் முடிவுக்கு வழிவகுத்த சிந்தனையை விளக்க சட்டப்பூர்வ ஆணை உள்ளது. (AI இன் நன்மை தீமைகள் குறித்து மேலும் அறிய, இயந்திர கற்றலின் வாக்குறுதிகள் மற்றும் ஆபத்துகளைப் பாருங்கள்.)

பக்கச்சார்பான முடிவுகள்

அல்காரிதமிக் முடிவுகளைப் பற்றி சிலர் எழுப்பியுள்ள ஒரு கவலை என்னவென்றால், புறநிலை பகுத்தறிவுக்கு நிற்கும்போது கூட, அவர்கள் சார்புகளை வலுப்படுத்த முடியும். கேத்தி ஒனெய்ல் "கணித அழிவின் ஆயுதங்கள்: பெரிய தரவு எவ்வாறு சமத்துவமின்மையை அதிகரிக்கிறது மற்றும் ஜனநாயகத்தை அச்சுறுத்துகிறது" என்பதில் வாதத்தின் முக்கிய அம்சம் இதுதான். பெரிய தரவுகளுடன் தொடர்புடைய புறநிலைத்தன்மையின் தோற்றமே அதன் பயன்பாடுகளில் மிகவும் தீங்கு விளைவிக்கும், இது உண்மையில் சார்புகளை வலுப்படுத்துகிறது .


"கணித அழிவு" என்று அவர் அழைப்பது "தடைகளை வலுப்படுத்தும் மாதிரிகளின் விளைவாகும், குறிப்பிட்ட மக்கள்தொகை மக்களை கடன், கல்வி, வேலை வாய்ப்புகள், பரோல் போன்றவற்றுக்கு தகுதியற்றவர்கள் என்று அடையாளம் காண்பதன் மூலம் பின்தங்கிய நிலையில் வைத்திருக்கிறது."

அல்காரிதமிக் சார்புகளைக் கண்டுபிடிப்பதில் அவள் தனியாக இல்லை. 2016 ஆம் ஆண்டில், புரோ பப்ளிகா தனது கண்டுபிடிப்புகளைப் பகிர்ந்து கொண்டது, வெள்ளையர்களைக் காட்டிலும் கறுப்பினத்தினருக்கான அதிகப்படியான மறுமலர்ச்சி விகிதங்களை அல்காரிதம் கணித்துள்ளது, இது ஒரே வகையான குற்றங்களுக்கு வெவ்வேறு சிறைத் தண்டனைகளாக மொழிபெயர்க்கப்பட்டுள்ளது. ஒரு 2017 கார்டியன் கட்டுரை பாலினத்திற்கும் சார்பு நீட்டித்தது.

சிக்கல் என்னவென்றால், இந்த அமைப்புகள் தொலைநோக்கு விளைவுகளுடன் திட்டமிடப்படுகின்றன. ஒரு தொலைபேசி நேர்காணலில், கோலிப்ராவின் இணை நிறுவனரும் சி.டி.ஓ.யுமான ஸ்டிஜ்ன் கிறிஸ்டியன்ஸ், AI "தானியங்கி முடிவெடுப்பதை" செயல்படுத்துகிறது, இது வினாடிக்கு 10 ஆயிரத்துக்கும் மேற்பட்ட முடிவுகளை தாண்டக்கூடும்.

பிழைகள் இல்லை, மன அழுத்தமும் இல்லை - உங்கள் வாழ்க்கையை அழிக்காமல் வாழ்க்கையை மாற்றும் மென்பொருளை உருவாக்குவதற்கான படி வழிகாட்டியின் படி

மென்பொருள் தரத்தைப் பற்றி யாரும் அக்கறை கொள்ளாதபோது உங்கள் நிரலாக்க திறன்களை மேம்படுத்த முடியாது.

அதாவது, மோசமான முடிவுகளில் அமைக்கப்பட்ட ஒரு அமைப்பு எந்தவொரு மனிதனால் முடிந்ததை விடவும் மிக விரைவாக அவற்றில் பலவற்றை உருவாக்கும். இந்த அமைப்பு ஒரு சார்புடையதாக இருந்தால், அந்த பெரிய எண்ணிக்கையிலான முடிவுகள் "சில மக்களுக்கு சேதம் விளைவிக்கும்", மிகவும் தீவிரமான மற்றும் பரவலான விளைவுகளை ஏற்படுத்தும், கிறிஸ்டியன்ஸ் கூறினார்.

வழிமுறைகளின் பராமரிப்பு மற்றும் உணவு

நிச்சயமாக, முழுமையற்ற அல்லது மோசமான தரவுகளின் விளைவாக பிழைகள் உள்ளன. மேலே குறிப்பிடப்பட்ட கார்டியன் கட்டுரையில் மேற்கோள் காட்டப்பட்ட சில வல்லுநர்கள் பக்கச்சார்பான வழிமுறை முடிவுகளுக்கு இதுவே காரணம். ஆக்ஸ்போர்டு பல்கலைக்கழகத்தின் சாண்ட்ரா வாட்சர் அதை பின்வருமாறு சுருக்கமாகக் கூறினார்: “உலகம் பக்கச்சார்பானது, வரலாற்றுத் தரவு பக்கச்சார்பானது, எனவே நாங்கள் பக்கச்சார்பான முடிவுகளைப் பெறுவதில் ஆச்சரியமில்லை.”

அதே வழியில், கிறிஸ்டியன்ஸ் கூறினார், “இது உண்மையான உலக அவதானிப்புகளை அடிப்படையாகக் கொண்டது,” AI “எங்கள் சார்புகளை அவதானிக்கிறது, மேலும் பாலியல் அல்லது இனவெறி வெளியீடுகளை உருவாக்குகிறது.” குப்பை, குப்பை வெளியே (GIGO ), சிக்கல் தரவை உருவாக்கும் உணவு "உணவு" ஆக இருக்கலாம், ஏனெனில் அது தவறானது, முழுமையற்றது அல்லது பக்கச்சார்பானது.

மக்கள்தொகையில் உள்ள வேறுபாடுகளை போதுமான அளவில் பிரதிநிதித்துவப்படுத்தாத தரவுகளிலிருந்து இனவெறி மற்றும் பாலியல் விளைவுகளை அமைப்புக்கு பயிற்றுவிக்க முடியும். பெண்களுக்கு 20 சதவிகித பிரதிநிதித்துவம் மட்டுமே இருக்கக்கூடிய மாநாடுகளில் பேச்சாளர்களின் அடிப்படையில் பயிற்சி தரவை வரைவதற்கான வழக்கை அவர் வழங்கினார். அத்தகைய வளைந்த பிரதிநிதித்துவத்தைப் பற்றி பயிற்சியளிக்கும்போது, ​​வழிமுறை ஒரு உள்ளமைக்கப்பட்ட சார்புகளைக் கொண்டிருக்கும்.

AI ரசவாதம்

AI சார்பு சிக்கல் எப்போதும் தரவு ஊட்டத்தால் அல்ல, ஆனால் அதன் முடிவுகளை செயல்படுத்தும் விதத்திலும் இல்லை. அந்த நடவடிக்கைகளின் மர்மம் அலி ரஹிமி மற்றும் பென் ரெக்டை தாக்கியது, அவர்கள் அதை ரசவாதத்துடன் ஒப்பிட்டனர்.

ரசவாதம் அதன் இடத்தைக் கொண்டிருக்கலாம் என்றாலும், கடுமையான விளைவுகளைக் கொண்ட தானியங்கி முடிவுகளைப் பற்றிய அவர்களின் கேள்விகளுக்கு விடையாக மக்கள் விரும்புவதல்ல. ரஹிமி மற்றும் ரெக்ட் கூறியது போல்: “ஆனால் நாங்கள் இப்போது சுகாதாரப் பாதுகாப்பு மற்றும் சிவில் விவாதத்தில் பங்கேற்பதை நிர்வகிக்கும் அமைப்புகளை உருவாக்குகிறோம். ரசாயனத்தில் அல்ல, கடுமையான, நம்பகமான, சரிபார்க்கக்கூடிய அறிவில் உள்ள ஒரு உலகில் நான் வாழ விரும்புகிறேன். ”(சுகாதாரப் பாதுகாப்பில் AI ஐப் பற்றி மேலும் அறிய, சுகாதாரப் பாதுகாப்பில் 5 மிக அற்புதமான AI முன்னேற்றங்களைப் பார்க்கவும்.)

கருப்பு பெட்டிக்கு அப்பால்: முடிவுகளை தீர்மானிப்பதைக் கண்டறிதல்

இதனால்தான் AI அமைப்புகளின் சிந்தனை செயல்பாட்டில் வெளிப்படைத்தன்மையை அறிமுகப்படுத்துவதற்கான வழியை சிலர் முன்வைக்கின்றனர், அது ஏன் அது எடுத்த முடிவுகளுக்கு வந்தது என்பதை விளக்குகிறது. பல்வேறு இடங்களிலிருந்து முயற்சிகள் மேற்கொள்ளப்பட்டுள்ளன.

அமெரிக்க பல்கலைக்கழகங்களில் மூன்று பேராசிரியர்கள் மற்றும் ஆராய்ச்சியாளர்கள் அடங்கிய குழு 2016 ஆம் ஆண்டில் ஒரு தீர்வில் பணியாற்றியது, அவர்கள் உள்ளூர் விளக்கமளிக்கும் மாதிரி-அஞ்ஞான விளக்கங்கள் (LIME) என்று அழைத்தனர். இந்த வீடியோவில் அவர்கள் அணுகுமுறையை விளக்குகிறார்கள்:

இது சரியான திசையில் ஒரு படி என்றாலும், தீர்வு சரியாக வேலை செய்யவில்லை. எனவே ஆராய்ச்சி தொடர்கிறது, மொத்த உள்நாட்டு உற்பத்தியின் வெளிச்சத்தில், ஐரோப்பிய ஒன்றியத்துடன் இணைக்கப்பட்டவர்களுக்கு விளக்கக்கூடிய AI ஐ அடைவதில் ஒரு குறிப்பிட்ட ஆர்வம் உள்ளது.

பிரஸ்ஸல் பல்கலைக்கழகத்தில் உள்ள செயற்கை நுண்ணறிவு ஆய்வகம், கிறிஸ்டியன்ஸ் நிறுவனம் உருவான ஒரு நிறுவனம், இதுபோன்ற ஆராய்ச்சிக்கு அர்ப்பணிக்கப்பட்ட இடங்களில் ஒன்றாகும். பட அங்கீகாரத்துடன் பணியாற்றுவதற்கான வழிகளை இந்த ஆய்வகம் கண்டறிந்துள்ளது, மேலும் “நெட்வொர்க் மொழியியல் ரீதியாக என்ன கண்டிருக்கிறது, ஏன் காணப்படுகிறது என்பதை விளக்குகிறது” இது படத்தில் உள்ளதைப் பற்றி அது செய்யும் முடிவுகளுக்கு வருகிறது, என்றார்.

"வழிமுறைகள் எப்போதும் ஒரே மாதிரியாக செயல்படுகின்றன," கிறிஸ்டியன்ஸ் விளக்கினார். "உள்ளீட்டுத் தரவு அம்சங்களாக மொழிபெயர்க்கப்படுகிறது." AI ஆய்வகத்தில், "துளையிடவும், முடிவு மரத்தில் என்ன நடந்தது என்பதைப் பார்க்கவும்" அவர்களுக்கு வழிவகைகள் உள்ளன. அந்த அடிப்படையில், "பின்பற்றப்பட்ட பாதைகளைப் பார்க்க" முடியும் ஏதோ தவறு நடந்த இடத்தைப் பார்த்து, பின்னர் "சரிசெய்து மீண்டும் பயிற்சி செய்யுங்கள்."

ஐபிஎம் பிளாக் பாக்ஸ் சிக்கல் குறித்தும் தனது கவனத்தை செலுத்தியது, மேலும் இது சமீபத்தில் ஒரு மென்பொருள் சேவையை வழங்குவதாக அறிவித்தது, இது ஐபிஎம் கிளவுட் வழியாக கணினி இயங்கும்போது கூட AI இன் முடிவுகளுக்கு சார்பு மற்றும் கணக்கைக் கொடுக்கும். சரியான நேரத்தில் எச்சரிக்கையுடன் கூடுதலாக, பக்கச்சார்பான முடிவுகளை எதிர்கொள்ள என்ன தரவு தேவை என்பதற்கான பரிந்துரைகளை இது வழங்குகிறது.

கிளவுட் சேவைக்கு கூடுதலாக, ஐபிஎம் இயந்திர கற்றல் முறைகளை உருவாக்கும் நிறுவனங்களுக்கு எதிர்காலத்தில் பக்கச்சார்பான முடிவுகளைக் குறைக்க முயற்சிக்க ஆலோசனை வழங்குகிறது. சிறந்த அமைப்புகளை உருவாக்க உதவுவதற்கும், திட்டமிடப்பட்ட சாத்தியமான சார்புகளுக்கான காசோலையை வழங்குவதற்கும் பிற AI நிபுணர்களும் ஆலோசனையில் ஈடுபடுவார்கள்.

AI அமைப்புகள் அவற்றை அமைக்கும் மனிதர்களைப் போலவே பிழைக்கு உட்பட்டவை என்பதை நாம் நினைவில் கொள்ள வேண்டும், எனவே யாரும் முடிவுகளை கணக்கில் கொடுக்கவில்லை.