AI பற்றிய 11 மேற்கோள்கள் உங்களை சிந்திக்க வைக்கும்

நூலாசிரியர்: Laura McKinney
உருவாக்கிய தேதி: 3 ஏப்ரல் 2021
புதுப்பிப்பு தேதி: 26 ஜூன் 2024
Anonim
The Great Gildersleeve: Gildy’s New Car / Leroy Has the Flu / Gildy Needs a Hobby
காணொளி: The Great Gildersleeve: Gildy’s New Car / Leroy Has the Flu / Gildy Needs a Hobby

உள்ளடக்கம்


ஆதாரம்: லின் ஷாவோ ஹுவா / ட்ரீம்ஸ்டைம்.காம்

எடுத்து செல்:

AI இன் முன்னேற்றம் தவிர்க்க முடியாதது, மேலும் இது மனிதகுலத்திற்கு என்ன மொழிபெயர்க்கிறது என்பது முற்றிலும் தெளிவாக இல்லை. ஒரு சிறந்த எதிர்காலத்தை நாம் எதிர்நோக்கலாம் என்று சிலர் நம்புகிறார்கள், மற்றவர்கள் நம் ரோபோ மேலதிகாரிகளால் மாற்றப்படுவதற்கான பாதையில் இருக்கிறோம் என்று அர்த்தம் என்று நினைக்கிறார்கள். மூன்றாவது முன்னோக்கு ஆபத்துக்களை அறிந்த ஒன்று, ஆனால் அவற்றை நிர்வகிக்கக்கூடியதாக கருதுகிறது.

AI மற்றும் அதன் உருமாறும் திறன் பற்றி நாம் நிறைய கேள்விப்படுகிறோம். எவ்வாறாயினும், மனிதகுலத்தின் எதிர்காலத்திற்கு என்ன அர்த்தம் என்பது முற்றிலும் தெளிவாக இல்லை. சில எதிர்காலவாதிகள் வாழ்க்கை மேம்படும் என்று நம்புகிறார்கள், மற்றவர்கள் இது கடுமையான அச்சுறுத்தலுக்கு உள்ளாகி இருப்பதாக நினைக்கிறார்கள். நடுவில் நிலைகளின் ஸ்பெக்ட்ரமும் உள்ளது. 11 நிபுணர்களிடமிருந்து எடுக்கப்பட்ட வரம்பு இங்கே.

1. "இதுவரை, செயற்கை நுண்ணறிவின் மிகப்பெரிய ஆபத்து என்னவென்றால், மக்கள் அதைப் புரிந்துகொள்வதை மிக விரைவாக முடிவு செய்கிறார்கள்." - எலியேசர் யூட்கோவ்ஸ்கி


இயந்திர நுண்ணறிவு ஆராய்ச்சி நிறுவனத்திற்கான (மிரி) “உலகளாவிய ஆபத்தில் ஒரு நேர்மறை மற்றும் எதிர்மறை காரணியாக செயற்கை நுண்ணறிவு” என்ற தலைப்பில் யூட்கோவ்ஸியின் 2002 அறிக்கையில் இது முதல் வாக்கியம். AI என்ற சொல் இப்போது இருப்பதைப் போலவே பிணைக்கப்படவில்லை என்றாலும், தொழில்நுட்பத்தின் திறன்கள் மற்றும் வரம்புகள் குறித்த புரிதலின் குறைபாடு இன்னும் உள்ளது. உண்மையில், கடந்த இரண்டு ஆண்டுகளில், AI ஐ புரிந்துகொள்ளக்கூடியதாக மட்டுமல்லாமல் விளக்கக்கூடியதாகவும் மாற்றுவதற்கான அதிக உந்துதல் உள்ளது.

2. "AI ஐப் பற்றி எதையும் விளக்கக்கூடிய, நியாயமான, பாதுகாப்பான மற்றும் பரம்பரையுடன் உருவாக்குவது மிக முக்கியமானது, அதாவது AI இன் எந்தவொரு பயன்பாடும் எவ்வாறு வளர்ந்தது, ஏன் என்பதை எவரும் மிக எளிமையாகக் காணலாம்." - ஜின்னி ரோமெட்டி

ஐபிஎம் நிறுவனத்தின் தலைமை நிர்வாக அதிகாரி ஜனவரி 9, 2019 அன்று CES இல் தனது முக்கிய உரையின் போது அந்த அறிக்கையை வெளியிட்டார். விளக்கக்கூடிய AI இன் தேவையை வலியுறுத்துவதன் பின்னணி என்னவென்றால், அதை ஒரு சீல் செய்யப்பட்ட கருப்பு பெட்டியாக வைத்திருப்பது நிரலாக்கத்தில் சார்புகளையும் பிற சிக்கல்களையும் சரிபார்த்து சரிசெய்ய இயலாது. நிறுவனங்களுக்கு கம்ப்யூட்டிங் சேவைகளை வழங்குவது மட்டுமல்லாமல், இயந்திர கற்றல் அமைப்புகளை உருவாக்குபவர்களுக்கு சார்புகளை குறைப்பது தொடர்பான ஆலோசனைகளையும் இந்த சிக்கலைத் தீர்ப்பதற்கான வேலை முகாமில் ஐபிஎம் தன்னை ஈடுபடுத்திக் கொண்டுள்ளது. (AI இன் விளக்கமளிக்கும் AI பற்றி மேலும் அறிக, செய்ய வேண்டியது சிலவற்றைச் செய்ய வேண்டும்.)


பிழைகள் இல்லை, மன அழுத்தமும் இல்லை - உங்கள் வாழ்க்கையை அழிக்காமல் வாழ்க்கையை மாற்றும் மென்பொருளை உருவாக்குவதற்கான படி வழிகாட்டியின் படி

மென்பொருள் தரத்தைப் பற்றி யாரும் கவலைப்படாதபோது உங்கள் நிரலாக்க திறன்களை மேம்படுத்த முடியாது.

3. “இறுதி தேடல் இயந்திரம், இது ஒரு வினவலில் நீங்கள் தட்டச்சு செய்தபோது நீங்கள் விரும்பியதை சரியாகப் புரிந்துகொள்வீர்கள், மேலும் இது சரியான சரியான விஷயத்தைத் தரும் கணினி அறிவியல் அந்த செயற்கை நுண்ணறிவு என்று அழைக்கிறோம். அதாவது இது புத்திசாலித்தனமாக இருக்கும், மேலும் ஸ்மார்ட் கணினிகளைக் கொண்டிருப்பதற்கான நீண்ட வழி நாங்கள். ” - லாரி பக்கம்

அந்த நேரத்தில் கூகிளின் இணை நிறுவனர் மற்றும் தலைமை நிர்வாக அதிகாரி நவம்பர் 2002 இல் பிபிஎஸ் நியூஸ்ஹோர் பிரிவின் போது “கூகிள்: தேடுபொறி முடியும்” என்ற தலைப்பில் இதைக் கூறினார். அமெரிக்க பேச்சுவழக்கு ஆண்டின் கூகிளின் பிரபலமடைந்து வருவதைப் பிரதிபலிக்கும் வகையில் ஹோஸ்ட் திறக்கப்பட்டது. மெரியம்-வெப்ஸ்டர் போன்றவர்களால் அங்கீகரிக்கப்படுவதற்கு இன்னும் சில ஆண்டுகள் ஆகும் என்றாலும், சமூகம் இதை பயன்பாட்டில் சேர்க்க மிகவும் பயனுள்ள வினைச்சொல் என்று மதிப்பிட்டது. ஆனால் ஆரம்பத்தில் கூட, நிறுவனம் AI ஐப் பயன்படுத்துவதில் அதன் ஆர்வத்தை அடையாளம் காட்டியது.

4. AI இன் எந்தவொரு குறிப்பையும் குறிப்பையும் எல்லா செலவுகளிலும் தவிர்க்கவும். ஆயுதமயமாக்கப்பட்ட AI என்பது AI இன் மிகவும் உணர்திறன் வாய்ந்த தலைப்புகளில் ஒன்றாகும் - இல்லையென்றால் அதிகம். கூகிளை சேதப்படுத்த அனைத்து வழிகளையும் கண்டறிய இது ஊடகங்களுக்கு சிவப்பு இறைச்சி. ” - கூகிளில் AI முன்னோடியாக இருந்த ஃபீ ஃபீ லி, ப்ராஜெக்ட் மேவனில் நிறுவனத்தின் ஈடுபாட்டைப் பற்றி சக ஊழியர்களுக்கு வழங்கினார்

AI இல் ஒரு முக்கிய வீரராக இருப்பது ஒரு தீங்கு விளைவிக்கும் என்று கூகிள் கண்டறிந்தது. ஜூலை 2017 இல், பாதுகாப்புத் துறை தனது திட்டங்களை திட்ட மேவனுக்காக முன்வைத்தது. உளவுத்துறை, கண்காணிப்பு மற்றும் மறுமதிப்பீட்டு நடவடிக்கைகளில் அல்காரிதமிக் வார்ஃபேர் கிராஸ்-ஃபங்க்ஷன் குழுவின் தலைவரான மரைன் கார்ப்ஸ் கர்னல் ட்ரூ குகோர், புலனாய்வு பாதுகாப்பு துணை செயலாளரின் அலுவலகத்தில் இயக்குநரகம்-போர்வீரர் ஆதரவு இந்த ஆண்டுக்கான அவர்களின் குறிக்கோள் குறித்து பேசினார்: “மக்களும் பொருள்களைக் கண்டறிய ஆயுத அமைப்புகளின் திறனை அதிகரிக்க கணினிகள் ஒத்துழைப்புடன் செயல்படும். ”

கூகிள் இந்த முயற்சியில் ஒரு பங்காளியாக இருந்தது, ஆனால் - மேலே மேற்கோள் காட்டியபடி - கூகிள் ஊழியர்கள் அதை விரும்பவில்லை. இறுதியில், நிறுவனம் அழுத்தத்திற்கு ஆளானது மற்றும் ஜூன் 2018 இல் பாதுகாப்புத் துறையுடனான ஒப்பந்தத்தை புதுப்பிக்கப் போவதில்லை என்று அறிவித்தது. இடைமறிப்பு அறிவித்தபடி:

மார்ச் மாதத்தில் கிஸ்மோடோ மற்றும் தி இன்டர்செப்ட் ஆகியவற்றால் ஒப்பந்தம் வெளிப்படுத்தப்பட்டதிலிருந்து கூகிள் வளர்ந்து வரும் அழுத்தத்தை எதிர்கொண்டது. கிட்டத்தட்ட ஒரு டஜன் ஊழியர்கள் எதிர்ப்புத் தெரிவித்து ராஜினாமா செய்தனர், மேலும் பல ஆயிரம் பேர் "கூகிள் போரின் தொழிலில் இருக்கக்கூடாது" என்று அறிவிக்கும் ஒரு திறந்த கடிதத்தில் கையெழுத்திட்டனர். 700 க்கும் மேற்பட்ட கல்வியாளர்களும் ஒரு கடிதத்தில் கையெழுத்திட்டனர், "கூகிள் டிஓடியுடனான ஒப்பந்தத்தை நிறுத்த வேண்டும், மற்றும் கூகிள் மற்றும் அதன் தாய் நிறுவனமான ஆல்பாபெட் இராணுவ தொழில்நுட்பங்களை உருவாக்க வேண்டாம் என்றும் அவர்கள் சேகரிக்கும் தனிப்பட்ட தரவை இராணுவ நோக்கங்களுக்காக பயன்படுத்தக்கூடாது என்றும் உறுதியளிக்கின்றன. ”

5. "செயற்கை நுண்ணறிவு 2029 ஆம் ஆண்டளவில் மனித நிலைகளை எட்டும். இதை மேலும் பின்பற்றுங்கள், 2045 க்கு, நமது நாகரிகத்தின் மனித உயிரியல் இயந்திர நுண்ணறிவை ஒரு பில்லியன் மடங்கு பெருக்கிக் கொண்டிருப்போம்." - ரே குர்ஸ்வீல்

எதிர்கால வல்லுநரும் கண்டுபிடிப்பாளரும் இதை 2012 நேர்காணலில் கூறினார், அதில் கம்ப்யூட்டிங் சக்தி மூலம் அழியாமையை அடைவது பற்றி பேசினார். அவர் "பில்லியன் மடங்கு" புள்ளிவிவரத்தை உறுதிப்படுத்தினார் மற்றும் அதை பின்வருமாறு விளக்கினார்: "இது ஒரு தனித்துவமான மாற்றமாகும், இது இந்த உருவகத்தை இயற்பியலில் இருந்து கடன் வாங்கி, அதை ஒரு ஒருமை, மனித வரலாற்றில் ஆழமான சீர்குலைக்கும் மாற்றம் என்று அழைக்கிறோம். எங்கள் சிந்தனை உயிரியல் மற்றும் உயிரியல் அல்லாத சிந்தனையின் கலப்பினமாக மாறும். ”வெளிப்படையாக, அவர் நம்பிக்கையூட்டும் எதிர்காலவாதிகளில் ஒருவராக இருக்கிறார், சீர்குலைக்கும் மாற்றத்தை சித்தரிப்பது பெரும் நன்மை பயக்கும். அழியாத தன்மை எட்டக்கூடியது என்று அவர் ஏன் நம்புகிறார் என்பதையும் அவர் மேலும் விளக்கினார்: “உங்கள் மீதமுள்ள ஆயுட்காலம் குறித்து ஒவ்வொரு ஆண்டும் ஒரு வருடத்திற்கும் மேலாக நாங்கள் சேர்ப்போம், அங்கு காலத்தின் மணல் ஓடுவதைக் காட்டிலும் இயங்குகிறது, அங்கு உங்கள் மீதமுள்ள ஆயுட்காலம் உண்மையில் நீண்டுள்ளது நேரம் ஆகிறது. ”

6. "செயற்கை நுண்ணறிவின் வருகையின் மிகப்பெரிய நன்மை என்னவென்றால், மனித நேயத்தை வரையறுக்க AI கள் உதவும். நாங்கள் யார் என்று எங்களுக்குச் சொல்ல AI கள் தேவை. ” - கெவின் கெல்லி

வயர்டின் இணை நிறுவனர் தனது 2016 ஆம் ஆண்டு புத்தகத்தில், “தவிர்க்க முடியாதது: நமது எதிர்காலத்தை வடிவமைக்கும் 12 தொழில்நுட்ப சக்திகளைப் புரிந்துகொள்வது” என்ற புத்தகத்தில் எழுதினார். தன்னியக்கவாக்கம் மற்றும் வேலைகள் ரோபோக்களால் கையகப்படுத்தப்படுவதை அவர் கற்பனை செய்யும்போது, ​​அங்கே அவர் எதிர்பார்க்கிறார் மறுப்பு மறு சுழற்சியாக இருக்கும், ஆனால் முன்னேற்றம் தவிர்க்க முடியாதது, அதற்கேற்ப நாம் மாற்றியமைக்க வேண்டும். ஐபிஎம் உடனான ஒரு நேர்காணலில் அவர் விளக்கினார்: “AI மூலம், உயிரியல் ரீதியாக இல்லாத மற்றும் மனித சிந்தனையைப் போன்ற பல புதிய வகையான சிந்தனைகளை நாங்கள் கண்டுபிடிக்கப் போகிறோம்,” மற்றும் அவர் சிறப்பிக்கும் கணினி மேகத்திற்கு வெள்ளி புறணி இது: "எனவே, இந்த உளவுத்துறை மனித சிந்தனையை மாற்றாது, ஆனால் அதை அதிகரிக்கிறது."

7. “AI உடனான உண்மையான ஆபத்து தீங்கு அல்ல, ஆனால் திறமை. ஒரு சூப்பர் இன்டெலிஜென்ட் AI அதன் குறிக்கோள்களை நிறைவேற்றுவதில் மிகச் சிறந்ததாக இருக்கும், மேலும் அந்த இலக்குகள் எங்களுடன் பொருந்தவில்லை என்றால், நாங்கள் சிக்கலில் இருக்கிறோம். தீமையிலிருந்து எறும்புகளை அடியெடுத்து வைக்கும் ஒரு தீய எறும்பு வெறுப்பவர் நீங்கள் அல்ல, ஆனால் நீங்கள் ஒரு நீர்மின்சக்தி பசுமை ஆற்றல் திட்டத்தின் பொறுப்பாளராக இருந்தால், இப்பகுதியில் ஒரு எறும்பு வெள்ளத்தில் மூழ்கி, எறும்புகளுக்கு மிகவும் மோசமானது. அந்த எறும்புகளின் நிலையில் மனிதகுலத்தை வைக்க வேண்டாம். ” - ஸ்டீபன் ஹாக்கிங்

இந்த மேற்கோள் 2015 ஆம் ஆண்டின் முற்பகுதியில் உள்ளது. இது ஒரு ரெடிட் ஏஎம்ஏ (என்னிடம் எதையும் கேளுங்கள்) கேள்வி பதில் அமர்வின் போது அளித்த பதில், தனது வகுப்புகளில் வரும் சில AI கவலைகளை எவ்வாறு நிவர்த்தி செய்வது என்று தெரிந்து கொள்ள விரும்பும் ஆசிரியரின் கேள்விக்கு, அதாவது பின்வரும்:

எனது வகுப்பிற்கு உங்கள் சொந்த நம்பிக்கைகளை எவ்வாறு பிரதிநிதித்துவப்படுத்துவீர்கள்? எங்கள் பார்வைகள் சமரசம் செய்ய முடியுமா? லைபர்சன் டெர்மினேட்டர்-பாணி “தீய AI” தள்ளுபடி செய்யும் எனது பழக்கம் அப்பாவியாக இருப்பதாக நீங்கள் நினைக்கிறீர்களா? இறுதியாக, AI இல் ஆர்வமுள்ள எனது மாணவர்களுக்கு நான் என்ன ஒழுக்கங்களை வலுப்படுத்த வேண்டும் என்று நினைக்கிறீர்கள்?

AI இன் மனிதகுலத்தின் மீது ஏற்படக்கூடிய அழிவுகரமான விளைவுகள் குறித்து ஹாக்கிங் சில கவலையைக் காட்டுகிறார், இருப்பினும், நாங்கள் அதைத் திட்டமிட்டால் ஆபத்தை நிர்வகிக்க முடியும் என்று அவர் நம்புவதாகத் தெரிகிறது, இது சிலரால் பகிரப்பட்ட ஒரு பார்வை. (இதைப் பற்றி மேலும் அறிய, சூப்பர் இன்டெலிஜென்ட் ஏஐக்கள் ஏன் மனிதர்களை எப்போது வேண்டுமானாலும் விரைவில் அழிக்க மாட்டார்கள் என்பதைப் பார்க்கவும்.)

8. "நீங்கள் எவ்வளவு சூப்பர் புத்திசாலி என்பதை அறிய விரும்புகிறீர்கள் சய்போர்க்கள் சாதாரண சதை மற்றும் இரத்த மனிதர்களுக்கு சிகிச்சையளிக்கலாமா? குறைவான புத்திசாலித்தனமான விலங்கு உறவினர்களை மனிதர்கள் எவ்வாறு நடத்துகிறார்கள் என்பதை ஆராய்வதன் மூலம் சிறந்த துவக்கம். இது ஒரு சரியான ஒப்புமை அல்ல, ஆனால் இது கற்பனை செய்வதை விட நாம் உண்மையில் கவனிக்கக்கூடிய சிறந்த வடிவமாகும். ” - யுவல் நோவா ஹராரி

பேராசிரியர் ஹராரி தனது 2017 ஆம் ஆண்டு புத்தகமான “ஹோமோ டியூஸ்: நாளைய ஒரு சுருக்கமான வரலாறு” இல் இந்த அறிவிப்பை வெளியிட்டார். அவரது பார்வை, எதிர்காலவாதிகளின் பார்வையைத் தவிர துருவங்கள் ஆகும், அவர் தரவரிசை என்று அழைப்பதன் எழுச்சியை சித்தரிப்பதில் மனிதர்கள் உயர்ந்த நிலத்தை முன்னேறச் செய்கிறார்கள் செயற்கை நுண்ணறிவு. ஹாக்கிங்கின் விளக்கத்தில் எறும்புகளின் நிலை வெள்ளத்தில் மூழ்குவதற்கு நாங்கள் கட்டுப்படுகிறோம். இது ஒரு சர்வவல்லமையுள்ள மற்றும் எல்லாம் அறிந்த “அண்ட தரவு செயலாக்க அமைப்பு” ஆதிக்கம் செலுத்தும் எதிர்காலமாகும், மேலும் எதிர்ப்பு வீண்.

9. "செயற்கை நுண்ணறிவு மற்றும் அதிநவீன ஆராய்ச்சியால் எழுப்பப்பட்ட தார்மீக மற்றும் நெறிமுறை சார்ந்த பிரச்சினைகளை நாம் தனித்தனியாகவும் கூட்டாகவும் தீர்க்க வேண்டும் உயிரி தொழில்நுட்பம், இது குறிப்பிடத்தக்க ஆயுள் நீட்டிப்பு, வடிவமைப்பாளர் குழந்தைகள் மற்றும் நினைவகத்தை பிரித்தெடுக்கும். ” - கிளாஸ் ஸ்வாப்

ஷ்வாப் ஜனவரி 2016 இல் நான்காவது தொழில்துறை புரட்சி குறித்த தனது எண்ணங்களை வெளியிட்டார். நேர்மறையான எதிர்காலவாதிகளைப் போலவே, எதிர்காலமும் "உடல், டிஜிட்டல் மற்றும் உயிரியல் உலகங்களை மனிதகுலத்தை அடிப்படையாக மாற்றும் வழிகளில் இணைக்கும்" என்று அவர் கருதினார். ஆனால் அவர் அதை ஒரு பொருட்டாக எடுத்துக் கொள்ளவில்லை அத்தகைய "மாற்றம் நேர்மறையானது", "வழியில் எழும் அபாயங்கள் மற்றும் வாய்ப்புகள்" இரண்டையும் பற்றிய விழிப்புணர்வுடன் திட்டமிடுமாறு மக்களை வலியுறுத்துகிறது.

10. "மனிதகுலத்தின் சிறந்த மற்றும் மோசமான இரண்டையும் பிரதிபலிக்கும் AI இன் திறனைப் பற்றி நிறைய எழுதப்பட்டுள்ளது. எடுத்துக்காட்டாக, தனிமையில் இருப்பவர்களுக்கு AI உரையாடலையும் ஆறுதலையும் அளிப்பதைக் கண்டோம்; AI இன பாகுபாட்டில் ஈடுபடுவதையும் நாங்கள் கண்டோம். ஆயினும், குறுகிய காலத்திற்கு AI தனிநபர்களுக்கு செய்யக்கூடிய மிகப் பெரிய தீங்கு வேலை இடப்பெயர்ச்சி ஆகும், ஏனெனில் AI உடன் தானியங்கிப்படுத்தக்கூடிய வேலையின் அளவு முன்பை விட மிகப் பெரியது. தலைவர்கள் என்ற வகையில், ஒவ்வொரு தனிமனிதனும் செழித்து வளர ஒரு உலகத்தை நாங்கள் கட்டமைக்கிறோம் என்பதை உறுதிப்படுத்துவது நம் அனைவருக்கும் பொறுப்பாகும். ” - ஆண்ட்ரூ என்ஜி

இந்த மேற்கோள் “என்ன செயற்கை நுண்ணறிவு இப்போது செய்ய முடியாது, இப்போது செய்ய முடியாது” என்பதிலிருந்து வந்தது, கூகிள் மூளை அணியின் ஸ்தாபகத் தலைவரும், ஸ்டான்போர்ட் செயற்கை நுண்ணறிவு ஆய்வகத்தின் முன்னாள் இயக்குநருமான ஆண்ட்ரூ என்ஜி, ஹார்வர்ட் பிசினஸ் ரிவியூவுக்கு 2016 இல் எழுதியபோது Baidu இன் AI அணியின் ஒட்டுமொத்த முன்னணியில் இருந்தது. (2017 ஆம் ஆண்டில் அவர் லேண்டிங் AI இன் நிறுவனர் மற்றும் இயக்குநரானார்.) இது AI இன் திறன்களையும் வரம்புகளையும் விளக்குகிறது, அது இன்றும் பொருந்தும். தரவு ஆதிக்கம் செலுத்தும் டிஸ்டோபியன் எதிர்காலத்தை என்ஜி முன்வைக்கவில்லை என்றாலும், அதை உருவாக்கியவர்களுக்கு அதன் நோக்கம் மற்றும் திட்டமிடப்படாத விளைவுகளைப் பற்றிய முழு புரிதலுடன் பொறுப்புடன் அதைப் பயன்படுத்த வேண்டிய பொறுப்பு உள்ளது என்பதை அவர் ஒப்புக்கொள்கிறார்.

11. "2035 க்குள் ஒரு மனித மனம் ஒரு செயற்கை நுண்ணறிவு இயந்திரத்தை வைத்திருக்க எந்த காரணமும் இல்லை." - கிரே ஸ்காட்

இந்த மேற்கோள் தவறாக தட்டச்சு செய்யப்படவில்லை, இருப்பினும் நீங்கள் ஆன்லைனில் வேறு எங்கும் பார்க்கும் வழியிலிருந்து விலகிச் செல்கிறது, ஏனெனில் இது எப்போதும் “2035 க்குள் ஒரு செயற்கை நுண்ணறிவு இயந்திரத்தை ஒரு மனித மனம் வைத்திருக்க எந்த காரணமும் இல்லை, வழியும் இல்லை” என்று தோன்றுகிறது. கதை. டிஜிட்டல் மூலங்களில் இது எவ்வளவு தூரம் தோன்றும் என்பதன் அடிப்படையில், இது 2015 ஆம் ஆண்டில் கூறப்பட்டிருக்கலாம். இருப்பினும், அந்தக் காலத்திலிருந்து கள் மற்றும் வீடியோக்கள் மூலம் பல மணிநேர தேடல்களுக்குப் பிறகும் என்னால் அதை எந்த குறிப்பிட்ட கான் மூலமும் பின்னிணைக்க முடியவில்லை. எனவே மூலத்தைக் கேட்க நான் ஸ்காட்டைத் தொடர்பு கொண்டேன். அவர் ஒப்புக் கொண்டார், "முதன்முறையாக நான் இதைச் சொன்னேன் அல்லது எங்கிருந்தேன் என்று எனக்கு நினைவிருக்கவில்லை." ஆனால் அவர் தனது சொற்களை நினைவு கூர்ந்தார்: "மேற்கோள் எப்போதும் தவறானது. அது ‘செயற்கை நுண்ணறிவு’ படிக்க வேண்டும். ”