அமெரிக்காவில் செயற்கை நுண்ணறிவு மற்றும் தொழில்நுட்ப பாசிசத்தின் எழுச்சி

தமிழில்: வெண்பா

அமெரிக்காவில் செயற்கை நுண்ணறிவு மற்றும் தொழில்நுட்ப பாசிசத்தின் எழுச்சி

தொகுப்பாளர் கேரி காஸ்பரோவ், அறிவாற்றல் விஞ்ஞானி கேரி மார்கஸுடன் உரையாடுகிறார். தனித்து பார்க்கும்போது, AI என்பது வேறு எந்த தொழில்நுட்பத்தையும் போலவே நன்மை தீமைகளுக்கு அப்பாற்பட்டது என்றும், தீமையின் ஏகபோக உரிமை இயந்திரங்களிடம் அல்ல - மனிதர்களிடமே உள்ளது என்றும் அவர்கள் ஒப்புக்கொள்கிறார்கள். இந்த சக்திவாய்ந்த புதிய கருவிகள், ஏற்கனவே வலுவிழந்துள்ள நமது ஜனநாயக அமைப்புகளுக்கு மேலும் தீங்கு விளைவிக்காமல் இருப்பதை உறுதிசெய்ய நாம் அனைவரும் என்ன செய்ய வேண்டும் என்பது பற்றி அவர்கள் விவாதிக்கின்றனர்.

அந்த விவாதத்தின் எழுத்துப்படிவம் பின்வருமாறு:

கேரி காஸ்பரோவ்: 1985-ல், எனது 22-வது வயதில், மேற்கு ஜெர்மனியின் ஹாம்பர்க் நகரில் ஒரே நேரத்தில் 32 சதுரங்க கணினிகளுக்கு எதிராக விளையாடினேன். நம்பினால் நம்புங்கள், அந்த 32 கணினிகளையும் நான் தோற்கடித்தேன். அவை எனக்குப் பொன்னான நாட்கள். கணினிகள் பலவீனமாக இருந்தன, என் மண்டை பலமாக இருந்தது.

அதற்கு 12 ஆண்டுகளுக்குப் பிறகு, 1997-ல், நான் நியூயார்க் நகரில் ஒரே ஒரு இயந்திரத்திற்கு எதிராக என் சதுரங்க வாழ்க்கையை காப்பாற்ற போராடிக் கொண்டிருந்தேன்: அது 'டீப் ப்ளூ' (Deep Blue) என்று செல்லப்பெயர் சூட்டப்பட்ட 10 மில்லியன் டாலர் மதிப்புள்ள IBM சூப்பர் கணினி. உண்மையில் அது ஒரு மறுபோட்டிதான். அதற்கு முந்தைய ஆண்டு பிலடெல்பியாவில் நான் அந்த இயந்திரத்தை வென்றேன் என்பதை மக்களுக்கு நினைவூட்ட விரும்புகிறேன்.

இந்த யுத்தம் வரலாற்றில் மிகவும் பிரபலமான மனிதன் - இயந்திரப் போட்டியாக மாறியது.

நியூஸ்வீக் இதழின் அட்டைப் படம் இதை "மூளையின் கடைசிப் போராட்டம்" என்று வர்ணித்தது. எந்த அழுத்தமும் இல்லை. இது என்னுடைய ஜான் ஹென்றி தருணம், ஆனால் நான் கதையைச் சொல்ல உயிர் பிழைத்தேன். கணினியின் வெற்றியை ரைட் சகோதரர்களின் முதல் விமானப் பயணம் மற்றும் நிலவில் தரையிறங்கியதுடன் ஒப்பிட்டுப் பல புத்தகங்கள் வெளிவந்தன. இது மிகைப்படுத்தல் தான், என்றாலும், அறிவார்ந்த இயந்திரங்கள் என்று அழைக்கப்படுபவற்றுடன் நாம் கொண்டிருக்கும் அன்பு-வெறுப்பு உறவில்  இது எப்போதும் இடம்பெற தவறியதில்லை.

ஆக, அந்த மிகைப்படுத்தல் மற்றும் பதற்றத்தின் சுழற்சியை நாம் மீண்டும் காண்கிறோமா? நிச்சயமாக, செயற்கை நுண்ணறிவு அனைத்து சதுரங்க இயந்திரங்களையும் விட மிகவும் அறிவார்ந்தது. ChatGPT போன்ற பெரிய மொழி மாதிரிகள் (Large language models), சட்டம், கலை உள்ளிட்ட பல்வேறு துறைகளில் சிக்கலான பணிகளைச் செய்ய முடியும். ஆனால் இந்த இயந்திரங்கள் அறிவார்ந்தவையா? அவை மனிதர்களுக்கு நிகரான அல்லது அவர்களை மிஞ்சும் செயற்கைப் பொது நுண்ணறிவை (AGI - artificial general intelligence) நெருங்குகின்றனவா? ஒருவேளை அவை அந்த நிலையை அடைந்தால், என்ன நடக்கும்?

மிக முக்கியமான விஷயம், AI என்பது இன்னும் ஒரு கருவி மட்டுமே என்பதை நினைவில் கொள்வதுதான். அது எவ்வளவு சக்தி வாய்ந்ததாகவும் கவர்ச்சிகரமானதாகவும் இருந்தாலும், கற்பனாவாதத்தின் அல்லது அவலநிலையின் முன்னோடி அல்ல. எந்த தொழில்நுட்பத்தையும் போல அது நன்மை தீமை அற்றதுதான். நாம் அதை நன்மைக்கா அல்லது தீமைக்கா எப்படிப் பயன்படுத்துகிறோம் என்பதில்தான் எல்லாம் இருக்கிறது.

அமெரிக்காவை ஆளும் தி அட்லாண்டிக்கிலிருந்து, நான் கேரி காஸ்பரோவ்.

என் விருந்தினர் கேரி மார்கஸ். அவர் ஓர் அறிவாற்றல் விஞ்ஞானி, செயற்கை நுண்ணறிவுத் துறையில் பல பத்தாண்டுகளாகப் பணியாற்றி வருகிறார். அவர் AI-ஐ கண்மூடித்தனமாகப் பாராட்டுபவர் அல்லர். அதற்கு நேர்மாறானவர். அவரது சமீபத்திய புத்தகத்தின் பெயர், "சிலிக்கான் வேலியை கட்டுப்படுத்தல்: AI நமக்காகச் செயல்படுவதை நாம் எப்படி உறுதி செய்யலாம்" (Taming Silicon Valley: How We Can Ensure That AI Works for Us). தீமையின் ஏகபோக உரிமை இயந்திரங்களிடம் அல்ல, மனிதர்களிடமே உள்ளது என்பதில் அவரும் நானும் உடன்படுகிறோம். மேலும், செயற்கை நுண்ணறிவின் சக்தி ஏற்கனவே பலவீனமாக உள்ள நமது ஜனநாயக அமைப்புகளுக்குத் தீங்கு விளைவிக்காமல் இருக்க மனிதர்கள் என்ன செய்ய வேண்டும் என்பது பற்றி நாங்கள் பேசுகிறோம்.

காஸ்பரோவ்: கேரி மார்கஸ், எங்கள் நிகழ்ச்சிக்கு வரவேற்கிறோம்.

கேரி மார்கஸ்: இது கேரி (ஆளுமையின்) நிகழ்ச்சி!

காஸ்பரோவ்: நீங்கள் செயற்கை நுண்ணறிவில் ஒரு நிபுணர், மேலும் மிக இளம் வயதிலிருந்தே பல பத்தாண்டுகளாக இதில் பணியாற்றி வருகிறீர்கள். எனவே, நாம் AI பற்றிப் பேசுவதற்கு முன், நான் உங்களிடம் கேட்க வேண்டும், 1997-ல், நீங்கள் யாருக்கு ஆதரவாக இருந்தீர்கள்?

மார்கஸ்: நான் யாருக்கு ஆதரவாக இருந்தேனா?

காஸ்பரோவ்: எனக்கா அல்லது டீப் ப்ளூவிற்கா? ஆனால் நேர்மையாகச் சொல்லுங்கள், தயவுசெய்து. எந்த மனக்கசப்பும் வேண்டாம்.

மார்கஸ்: உங்களுக்குத் தெரியுமா, 1997-லேயே நான் AI மீதான மயக்கம் தெளிந்த நிலை அடைந்திருந்தேன். அதனால் நான் அதைப் பற்றி அதிகம் கவலைப்படவில்லை. இறுதியில் ஒரு சதுரங்க இயந்திரம் வெற்றி பெறும் என்று எனக்குத் தெரியும். நான் உண்மையில் டீப் ப்ளூவின் முன்னோடியான டீப் தாட் (Deep Thought) உடன் விளையாடியிருக்கிறேன், அது என்னை உதைத்துத் தள்ளிவிட்டது—அதன் தொடக்க ஆட்ட யுக்திகள் (opening book) முடக்கப்பட்ட நிலையில்கூட, அல்லது அது போன்ற அவமானகரமான நிலையில் கூட விளையாடியிருக்கிறேன். நான் ஒரு சிறந்த சதுரங்க வீரர் என்பதற்காகச் சொல்லவில்லை, ஆனால், வரப்போவதை நான் முன்பே கணித்துவிட்டேன். நான் யாருக்கும் ஆதரவளிக்கவில்லை; ஒரு விஞ்ஞானியாக, 'இந்தச் சிக்கலை நாம் எப்போது தீர்க்கப் போகிறோம்?' என்று கவனித்துக் கொண்டிருந்தேன். அதே நேரத்தில், 'இது சதுரங்கம் தானே, இதை முரட்டு சக்தியால் (brute-force) சாதிக்க முடியும். ஆனால் மனித நுண்ணறிவு என்பது அதுவல்லவே' என்றும் நினைத்தேன். அதனால் நான் அதைப் பெரிதாகப் பொருட்படுத்தவில்லை.

காஸ்பரோவ்: நீங்கள் "முரட்டு சக்தி" என்கிறீர்கள். இவ்வளவு முன்னேற்றங்கள் ஏற்பட்ட பிறகும், இயந்திரங்கள் இன்னும் கிட்டத்தட்ட முழுவதுமாக முரட்டு சக்தியைத்தான் நம்பியிருக்கின்றன என்று சொல்வீர்களா, அல்லது எளிய எண்ணிக்கையிலிருந்து சில தரமான காரணிகளாக மாற்றம் நிகழ்வதை நாம் காண்கிறோமா?

மார்கஸ்: பொதுவாக சிக்கலான பதில் என்று சொல்வதை நான் வெறுக்கிறேன், ஆனால் இது ஒரு சிக்கலான பதில்.

காஸ்பரோவ்: இது ஒரு சிக்கலான பதில்தான். நான் எளிமையான கேள்வியைக் கேட்க மாட்டேன்.

மார்கஸ்: அப்படித்தான் நினைத்தேன். சிலவற்றில் நாம் அப்போதைவிட உண்மையான முன்னேற்றம் அடைந்துள்ளோம், ஆனால் சிலவற்றில் இல்லை. டீப் ப்ளூ பயன்படுத்திய முரட்டு சக்தி, நாம் இப்போது பயன்படுத்தும் முரட்டு சக்தியிலிருந்து வேறுபட்டது. உங்களைத் தோற்கடித்த முரட்டு சக்தி, ஒரே நேரத்தில் நம்பமுடியாத எண்ணிக்கையிலான நகர்வு நிலைகளைப் பார்க்கவும், பல நகர்வுகளுக்கு ஆழமாகச் செல்லவும் முடிந்தது.

ஆனால் பெரிய மொழி மாதிரிகள் உண்மையில் முன்னோக்கிப் பார்ப்பதே இல்லை. பெரிய மொழி மாதிரிகளால் சதுரங்கமே விளையாட முடியாது. அவை முறை மீறிய தவறான நகர்வுகளைச் செய்கின்றன. அவை அவ்வளவு சிறப்பாக இல்லை. ஆனால் அவை என்ன செய்கின்றன என்றால்: அவற்றிடம் ஒரு பரந்த அளவிலான தரவு உள்ளது. உங்களிடம் அதிக தரவு இருந்தால், உங்களிடம் ஒரு விஷயத்தின் அதிகப் பிரதிநிதித்துவ மாதிரி இருக்கும். உதாரணமாக, நீங்கள் வாக்காளர்களிடம் ஒரு கருத்துக் கணிப்பு எடுத்தால், உங்களிடம் எவ்வளவு வாக்காளர்கள் இருக்கிறார்களோ, அவ்வளவு துல்லியமாக கருத்துக் கணிப்பு இருக்கும். எனவே அவற்றிடம் மனித எழுத்துக்களின் மிகப்பரந்த மாதிரி உள்ளது — உண்மையில், முழு இணையமும். மேலும், வீடியோ மற்றும் பிறவற்றிலிருந்து படியெடுத்த ஏராளமான தரவுகளும் அவற்றிடம் உள்ளன. எனவே, இணையத்தில் உள்ள அனைத்து எழுதப்பட்ட எழுத்துக்களை விடவும் அதிகமான தரவுகள் அவற்றிடம் உள்ளன. இது நம்பமுடியாத அளவிலான தரவு. ஒவ்வொரு முறையும் அவை ஒரு கேள்விக்கு பதிலளிக்கும்போது, இந்தச் சூழலில் முன்பு என்ன சொல்லப்பட்டது என்பதை தோராயமாக கணிக்க முயற்சிக்கின்றன. அவற்றுக்குச் சூழலைப் பற்றிய ஆழமான புரிதல் இல்லை. அவற்றிடம் வார்த்தைகள் மட்டுமே உள்ளன. உண்மையில் என்ன நடக்கிறது என்பதை அவை புரிந்துகொள்வதில்லை, ஆனால் அந்த ஆழமான தரவுக் குவியல், அவை நுண்ணறிவின் ஒரு மாயையை முன்வைக்க அனுமதிக்கிறது. நான் அதை உண்மையில் நுண்ணறிவு என்று அழைக்க மாட்டேன். இது நீங்கள் அந்த வார்த்தையை எப்படி வரையறுக்கிறீர்கள் என்பதைப் பொறுத்தது, ஆனால் நான் சொல்வது என்னவென்றால், அது இன்னும் முரட்டு சக்திதான்.

இப்போது ஒரு நொடி சதுரங்கத்திற்கு வருவோம். நீங்கள் ஒரு பெரிய மொழி மாதிரியிடம், சமீபத்திய மாடலாக இருந்தாலும் சரி, சதுரங்கம் விளையாடச் சொன்னால், அது அடிக்கடி முறை மீறிய தவறான நகர்வுகளைச் செய்யும். இதை ஆறு வயது குழந்தை கூட செய்யாது. நீங்கள் எப்போது சதுரங்கம் கற்றுக்கொண்டீர்கள் என்று எனக்கு நினைவில்லை, ஆனால் நீங்கள் மிகவும் இளமையாக இருந்திருப்பீர்கள், எனவே நீங்கள் நான்கு வயது அல்லது அதுபோல இருந்திருப்பீர்கள் என்று யூகிக்கிறேன்.

காஸ்பரோவ்: ஐந்து. ஐந்தரை வயது.

மார்கஸ்: ஐந்து. ஆக, நீங்கள் ஐந்தரை வயதாக இருந்தபோது, விதிகளை உடனடியாகப் புரிந்துகொண்டீர்கள். உங்கள் சதுரங்க வாழ்க்கையில், நீங்கள் ஒரு சிறு குழந்தையாக இருந்ததிலிருந்து ஒருபோதும் முறை மீறிய தவறான நகர்வுகளைச் செய்திருக்க மாட்டீர்கள். ஆனால் [OpenAI-இன் மாடலான] o3 இந்த வார இறுதியில் கூட அவற்றைச் செய்து கொண்டிருந்தது. நான் ஒரு நண்பரிடம் முயற்சித்துப் பார்க்கச் சொன்னேன்.

நீங்கள் ஐந்தரை வயதாக இருந்தபோது, ஒன்று, இரண்டு, அல்லது பத்து ஆட்டங்களைப் பார்த்திருப்பீர்கள். ஆனால் பயிற்சித் தரவுகளில் (training data) மில்லியன் கணக்கான—ஒருவேளை பத்து மில்லியன் அல்லது நூறு மில்லியன்—ஆட்டங்கள் உள்ளன. அவர்கள் கிடைக்கக்கூடிய எந்தப் பயிற்சித் தரவையும் பயன்படுத்துவார்கள். எனவே ஒரு பெரிய அளவிலான தரவு உள்ளது. விதிகள் அங்கே இருக்கின்றன. விக்கிப்பீடியாவில் சதுரங்க விதிகளுக்கான பதிவு உள்ளது. அதுவும் அதில் இருக்கிறது. இவையெல்லாம் இருந்தும், அது இன்னும் முறை மீறிய தவறான நகர்வுகளைச் செய்யும்—உதாரணமாக, ஒரு ராணி ஒரு குதிரையைத் தாண்டி மற்றொரு ராணியை வெட்டுவது போல.

காஸ்பரோவ்: தவறுகள் செய்வது அல்ல—உண்மையில் விதிகளை மீறுவது. மீண்டும் சொல்கிறேன்: இது எப்படி நடக்கிறது? ஏன்? ஏனென்றால் விதிகள் எழுதப்பட்டுள்ளன, தொழில்நுட்ப ரீதியாகக் கிடைக்கக்கூடிய அனைத்து தகவல்களையும் அவர்களால் பிரித்தெடுக்க முடியும். ஆனாலும் அவை முறை மீறிய தவறான நகர்வுகளைச் செய்கின்றனவா?

மார்கஸ்: ஆம். உண்மையில், நீங்கள் அவற்றிடம் வாய்மொழியாகக் கேட்டால், அவை விதிகளைச் சொல்லும். அவை விதிகளைத் திரும்பக் கூறும், ஏனெனில் அவை மற்ற உரைகளை அடிப்படையாகக் கொண்டு உரையை உருவாக்கும் விதத்தில், அந்த விதிகள் அங்கே இருக்கும். நான் இதை முயற்சித்தேன். நான் கேட்டேன்: ஒரு ராணியால் ஒரு குதிரையைத் தாண்ட முடியுமா? அதற்கு அது சொன்னது: இல்லை; சதுரங்கத்தில், ஒரு ராணியால் குதிரை உட்பட எந்தக் காயையும் தாண்ட முடியாது. எனவே அதை வாய்மொழியாகச் சொல்ல முடியும். ஆனால் உண்மையில் ஆட்டத்தை விளையாடும்போது, என்ன நடக்கிறது என்பதற்கான ஒரு உள் மாதிரி (internal model) அதனிடம் இல்லை. எனவே, விதிகள் என்ன என்பதைத் திரும்பச் சொல்லும் அளவுக்கு பயிற்சித் தரவுகள் இருந்தாலும், அந்த விதிகளை ஆட்டத்திற்குப் பயன்படுத்த முடியாது—ஏனென்றால், ஆட்டத்தில் போக்கிற்கேற்ப வியூகம் வகுக்கும் திறன் அதனிடம் இல்லை.

காஸ்பரோவ்: ஆம். இது மிகவும் சுவாரஸ்யமானது, ஏனென்றால் நீங்கள் சொல்வது, இயந்திரங்களுக்கு விதிகள் எழுதப்பட்டிருப்பதால் தெரியும், ஆனால் வெளிப்படையாக எழுதப்படாத வரை என்ன செய்ய முடியும் அல்லது செய்ய முடியாது என்பது அவற்றுக்குத் தெரியாது. சரியா?

மார்கஸ்: இல்லை, இது அதைவிட மோசம். விதிகள் வெளிப்படையாக எழுதப்பட்டிருந்தாலும், விதிகளை அறிவதில் மற்றொரு கோணம் உள்ளது—அதாவது, ஒரு ராணி என்றால் என்ன, ஒரு குதிரை என்றால் என்ன, ஒரு யானை என்றால் என்ன, ஒரு காய் என்றால் என்ன என்பதை நாம் உண்மையில் புரிந்துகொள்கிறோம். ஆனால் அது எதையும் ஒருபோதும் புரிந்துகொள்வதில்லை. பெரும்பாலான மக்கள் இந்த விஷயங்களைப் பார்த்து, அவற்றிடம் இல்லாத ஒரு புரிதலை அவற்றுக்குக் காரணம் கூறுவது நம் காலத்தின் மிக மோசமான கதைகளில் ஒன்றாகும்.

காஸ்பரோவ்: சரி. இப்போது, நீங்கள் ஏன் அடிக்கடி AI சந்தேகவாதி (skeptic) என்று அழைக்கப்படுகிறீர்கள் என்பதை நம் பார்வையாளர்கள் புரிந்துகொண்டிருப்பார்கள் என்று நினைக்கிறேன். ஆனால் "AI யதார்த்தவாதி" (realist) என்பது பொருத்தமானது என்று நான் நம்புகிறேன், ஏனென்றால் AI மற்றும் மனிதன்-இயந்திர ஒத்துழைப்பின் எதிர்காலம் குறித்த உங்கள் ஒட்டுமொத்தப் பார்வையை நானும் பகிர்ந்து கொள்கிறேன்.

மார்கஸ்: என்னை ஒரு சந்தேகவாதி என்பதை விட AI யதார்த்தவாதி என்று அழைத்ததை நான் விரும்புகிறேன்.

காஸ்பரோவ்: நானும் அதை ஏற்கிறேன், மேலும் நான் எப்போதும் சொல்வது, AI மந்திரக்கோல் அல்ல, ஆனால் அது டெர்மினேட்டரும் அல்ல. அது கற்பனாவாதத்தின் அல்லது அவலநிலையின் முன்னோடி அல்ல. இது ஒரு தொழில்நுட்பம். இது உங்களுக்கு சொர்க்கத்திற்கு டிக்கெட் வாங்கிக் கொடுக்காது, அதுபோல அது நரகத்தின் கதவுகளையும் திறக்காது. எனவே யதார்த்தமாக இருப்போம்.

மார்கஸ்: ஆம். முதலில் யதார்த்தத்தைப் பற்றிப் பேசுகிறேன், பிறகு நரகத்தின் கதவுகளைப் பற்றிப் பேசுகிறேன். யதார்த்தத்தைப் பொறுத்தவரை, உங்களுக்கும் எனக்கும் நிறைய ஒற்றுமைகள் இருப்பதாக நான் நினைக்கிறேன். நாம் இருவரும் யதார்த்தவாதிகள், அரசியல் ரீதியாகவும் விஞ்ஞான ரீதியாகவும். உண்மை என்ன, அது சமூகத்தை எப்படிப் பாதிக்கும் என்பதைப் புரிந்துகொள்ள விரும்புகிறோம்.

உண்மை என்னவென்றால், AI நன்றாக வேலை செய்ய வேண்டும் என்று நான் விரும்புகிறேன். நான் உண்மையில் AI-ஐ விரும்புகிறேன். மக்கள் என்னை AI-ஐ வெறுப்பவன் என்கிறார்கள். நான் AI-ஐ வெறுக்கவில்லை. ஆனால் அதே நேரத்தில், ஒரு நல்ல விஷயத்தை உருவாக்க, முதலில் நீங்கள் அதன் வரம்புகளை யதார்த்தமாகப் பார்க்க வேண்டும். 

அது சொர்க்கத்தின் அல்லது நரகத்தின் கதவுகளைத் திறக்குமா? இது உண்மையில் ஒரு திறந்த கேள்வி, இல்லையா? AI என்பது அணு ஆயுதங்களைப் போல இரட்டைப் பயன்பாட்டுத் தொழில்நுட்பம் (dual-use technology). அதை நன்மைக்காகவும் பயன்படுத்தலாம், தீமைக்காகவும் பயன்படுத்தலாம். உங்களிடம் ஒரு இரட்டைப் பயன்பாட்டுத் தொழில்நுட்பம் இருக்கும்போது, அதை நல்வழியில் செலுத்த உங்களால் முடிந்ததைச் செய்ய வேண்டும்.

காஸ்பரோவ்: ஆனால் பாருங்கள், மனிதர்களுக்கு இன்னும் தீமையின் மீது ஏகபோக உரிமை உள்ளது என்பதை நான் திரும்பத் திரும்பச் சொல்கிறேன். ஒவ்வொரு தொழில்நுட்பத்தையும் யார் பயன்படுத்துகிறார்கள் என்பதைப் பொறுத்து நன்மைக்கோ தீமைக்கோ பயன்படுத்தலாம் என்ற உண்மையை நாம் புறக்கணிக்க முடியாது. AI உலகில் இருந்து வரும் மிகப்பெரிய அச்சுறுத்தல், இந்தத் தொழில்நுட்பம் நமக்குத் தீங்கு விளைவிக்க விரும்புபவர்களால் கட்டுப்படுத்தப்பட்டுப் பயன்படுத்தப்படுவதில்தான் உள்ளது என்று நான் நினைக்கிறேன்.

மார்கஸ்: பெரும்பாலும் உங்களுடன் உடன்படுகிறேன். முதலில், இயந்திரங்கள் வேண்டுமென்றே தீங்கிழைப்பதாக மாறும் என்று நாம் இருவரும் கவலைப்படவில்லை. அதன் வாய்ப்பு பூஜ்ஜியம் என்றும் நான் நினைக்கவில்லை, மிக அதிகம் என்றும் நான் நினைக்கவில்லை. தீங்கிழைக்கும் மனிதர்களை பற்றியும் அவர்கள் AI-ஐ வைத்து என்னென்ன செய்யக்கூடும் என்பது பற்றியும் நாம் கவலைப்பட வேண்டும் என்பதை ஒப்புக்கொள்கிறேன் — இது மிகப்பெரிய கவலை. நாம் இப்போது வைத்திருக்கும் AI வகை காரணமாக, அது தற்செயலாக மிகவும் மோசமான விஷயங்களைச் செய்யும் என்பதற்காகவும் நாம் கவலைப்பட வேண்டும். ஏனென்றால் அது உலகத்துடன் மிகவும் மோசமாக இணைக்கப்பட்டுள்ளது, உண்மை என்றால் என்ன என்பதை அது புரிந்துகொள்வதில்லை. அதனால் சதுரங்க விதிகளைக் கூட பின்பற்ற முடியவில்லை. அது தற்செயலாக மிகவும் மோசமான விஷயங்களைச் செய்யக்கூடும். எனவே, விபத்துக்கள் மற்றும் தவறான பயன்பாடு பற்றி நாம் கவலைப்பட வேண்டும் என்று நான் நினைக்கிறேன். ஒருவேளை தீய நோக்கம் பற்றி குறைவாகக் கவலைப்படலாம்.

காஸ்பரோவ்: இப்போது நான் மிகவும் எளிமையான—எந்த அறிவியல் பின்னணியும் இல்லாத ஒரு கேள்வியைக் கேட்கிறேன். நமது சதுரங்க முடிவுகளைப் பகுப்பாய்வு செய்யும்போது, 'இந்தப் பகுதி கணக்கீட்டின் மூலம் செய்யப்படுகிறது; இந்தப் பகுதி வடிவங்களை அடையாளம் காண்பதன் மூலம் செய்யப்படுகிறது' என்று எப்போதும் கூறுவோம். இப்போது, உங்கள் பார்வையில், AI-ஆல் செய்யப்படும் இந்த முடிவுகள் அல்லது பரிந்துரைகளில் எத்தனை சதவீதம் கணக்கீடுகளை அடிப்படையாகக் கொண்டவை, மற்றும் எத்தனை சதவீதம் புரிந்துகொள்ளுதல் மூலம் அடையப்படுகின்றன? அதாவது, நான் உள்ளுணர்வு என்ற வார்த்தையைப் பயன்படுத்த விரும்பவில்லை, ஆனால் வடிவங்களை அடையாளம் காணுதல். அதாவது: உத்தி (strategy) மற்றும் எளிய தந்திரக் கணக்கீடு (tactical calculation) என்று வைத்துக்கொள்வோம்?

மார்கஸ்: முதலில், நான் ஒன்றைத் தெளிவுபடுத்த வேண்டும்: உலகில் பல்வேறு வகையான AI-கள் உள்ளன. உதாரணமாக, GPS வழிகாட்டி அமைப்பு, நான் கணக்கீடு என்று அழைக்கும் வகையைச் சார்ந்தது, அதில் உள்ளுணர்வு எதுவும் இல்லை. அதனிடம் வெறுமனே வெவ்வேறு இடங்கள் மற்றும் அந்த இடங்களுக்கு இடையே நீங்கள் எடுக்கக்கூடிய வழிகள், அதற்கான நேரங்கள் போன்ற ஒரு பரந்த அட்டவணை உள்ளது.

முழுவதும் கணக்கீடுதான். நான் வடிவங்களை அடையாளம் காணுதல் என்று விவரிக்கும் எதுவும் அதில் இல்லை. நான் அதை இன்னும் AI என்றுதான் அழைப்பேன். இது ஒரு கவர்ச்சிகரமான AI அல்ல, இப்போது AI பற்றிப் பேசும்போது பெரும்பாலான மக்கள் இதைப் பற்றிப் பேசுவதில்லை. பெரும்பாலான மக்கள் ChatGPT போன்ற உரையாடல் இயந்திரங்களைப் (chatbots) பற்றிப் பேசுகிறார்கள். டீப் ப்ளூ உங்களைத் தோற்கடித்தபோது, அது முழுவதும் கணக்கீடுதான். ஒருவேளை அதில் ஒரு சிறிய வடிவங்களை அடையாளம் காணுதல் இருந்ததாக வாதிடலாம். ஸ்டாக்ஃபிஷ் (Stockfish) இப்போது இரண்டின் கலவையாக உள்ளது. இது ஒரு கலப்பின அமைப்பு (hybrid system), இதுதான் சரியான வழி என்று நான் நினைக்கிறேன். பிரபலமானவை பெரும்பாலும் கலப்பினங்கள் அல்ல, இருப்பினும் அவை பெருகிய முறையில் சில கலப்பின விஷயங்களை மறைமுகமாகச் சேர்க்கின்றன.

அவை எந்தக் கணக்கீடும் செய்வதில்லை. அவை அனைத்தும் வடிவங்களை அடையாளம் காண்பவை என்று சொல்வேன். தனித்த பெரிய மொழி மாதிரி என்பது, ஆழமான கருத்தியல் புரிதலோ அல்லது ஆழமான பிரதிநிதித்துவங்களோ இல்லாமல், முழுவதும் வடிவங்களை அடையாளம் காண்பது மட்டுமே. ஒரு "காயைத் தாண்டுவது" அல்லது "முறைமீறிய தவறான நகர்வு" என்பதன் அர்த்தம் கூட ஆழமாகப் புரிவதில்லை. எனவே அது செய்யும் அனைத்தும் உண்மையில் வடிவங்களை அடையாளம் காண்பதுதான். அது சதுரங்கம் விளையாடும்போது, மற்ற ஆட்டங்களை அடையாளம் காண்கிறது. இதில் ஒரு நட்சத்திரக் குறியீடு உள்ளது, அதாவது சில சூழல்களில் அவைகளால் சிறிய ஒப்பீடுகளைச் (analogy) செய்ய முடியும். எனவே இது சுத்த மனப்பாடமும் அல்ல; அது அப்படியே மறுஒப்படைப்பு செய்வதுமில்லை. ஆனால் அது அதற்கு நெருக்கமாக வருகிறது, அது ஒருபோதும் ஆழமான கருத்தியல் சார்ந்ததாக இருப்பதில்லை.

காஸ்பரோவ்: சரி, நாம் அரசியலுக்குச் செல்வதற்கு முன்—நான் சில கூற்றுகளைச் சொல்கிறேன். நான் சொல்வது சரியா, அல்லது அவை திருத்தப்பட வேண்டுமா என்று நீங்கள் சொல்லுங்கள். இந்த உள்கட்டமைப்பு மற்றும் இந்த முழுத் தொழிற்துறையும் சீரமைப்புச் சிக்கலைத் (alignment problem) தீர்க்கவில்லை.

மார்கஸ்: நெருங்கக்கூட இல்லை. "சீரமைப்புச் சிக்கல்" என்பது இயந்திரங்களை நீங்கள் விரும்பியபடி செய்ய வைப்பது அல்லது மனிதர்களுடன் இணக்கமான விஷயங்களைச் செய்ய வைப்பது. நாம் ஏற்கனவே ஒரு சிறந்த உதாரணத்தைப் பார்த்தோம், அது சதுரங்கம். நீங்கள் அதனிடம் "நான் சதுரங்கம் விளையாட விரும்புகிறேன்; இதோ சதுரங்க விதிகள்"—என்று சொல்கிறீர்கள், ஆனால் அதால் அதைக் கூட கடைப்பிடிக்க முடியவில்லை. இப்போது "மனிதர்களுக்குத் தீங்கு விளைவிக்காதே" போன்ற கடினமான ஒன்றிற்கு வந்தால், "தீங்கு" என்பதன் அர்த்தத்தை வரையறுப்பதே மிகவும் சிக்கலானது. அவைகளால் அதைச் செய்யவே முடியாது. சீரமைப்புச் சிக்கலில் உண்மையான முன்னேற்றம் எதுவும் இல்லை என்று நான் சொல்வேன். அதிக தரவுகளைச் சேர்ப்பது சீரமைப்புச் சிக்கலுக்கு அவ்வளவாக உதவாது. மேம்பட்ட கற்றல் (reinforcement learning) என்று ஒன்று உள்ளது. அது சிறிது உதவுகிறது, ஆனால் சீரமைப்புக்கு உண்மையான தீர்வு போன்ற எதுவும் நம்மிடம் இல்லை.

காஸ்பரோவ்: சரி, ஆக, வெறுமனே தகவல்களைச் சேர்ப்பது—அல்லது இந்த மனிதத் தரவுகளைச் சுத்தம் செய்வது, இந்தத் தரவுகளின் வானளாவிய கட்டிடங்களைக் கட்டுவது—அதிகம் உதவாது என்பதுதான் இறுதி முடிவு.

எனவே நாம் ஒரு தேக்கநிலையை அடைந்துவிட்டோம். நாம் தொடர்ந்து மேலும் மேலும் தரவுகளைக் குவித்து, இந்த அளவை அடுத்த நிலைக்குச் செல்ல ஒரு தரமாக மாற்றுவோம் என்ற எண்ணம் வேலை செய்யாது. ஏனென்றால், இந்த வகையான மீநுண்ணறிவு (superintelligence) நாளை அல்லது எதிர்காலத்தில் நிகழும் என்பதற்கு எந்த ஆதாரமும் இல்லை.

மார்கஸ்: அது வேலை செய்யாது. நாம் இறுதியில் மீநுண்ணறிவை அடைவோம், ஆனால் வெறுமனே அந்த விலங்குக்கு அதிக தரவுகளை ஊட்டுவதன் மூலம் அல்ல. இந்தத் துறை அறிவுபூர்வமாக நேர்மையானதா என்று நீங்கள் கேட்பீர்கள் என்று நினைத்தேன். என் பதில்: இனி இல்லை. AI ஒரு காலத்தில் அறிவுபூர்வமாக நேர்மையான துறையாக இருந்தது, குறைந்தபட்சம் பெரும்பகுதி.

இப்போது நாம் வெறுமனே விஷயங்களை மிகைப்படுத்தி, பூஜிக்கும் மக்களைக் கொண்டுள்ளோம். நான் கேட்ட ஒரு சிறந்த சொற்றொடர் உள்ளது: "கோரு! செயல்படு!! " (Pray and prompt). நீங்கள் பிரார்த்தனை செய்து, சரியான பதிலைப் பெறுவீர்கள் என்று நம்புகிறீர்கள். இந்த விஷயங்கள் உண்மையில் நம்மை AGI-க்கு அழைத்துச் செல்லும் என்று கருதுவது நியாயமில்லை. ஆனால் இப்போதெல்லாம் இந்தத் துறை முழுவதும் அதன் மீதுதான் கட்டமைக்கப்பட்டுள்ளது.

காஸ்பரோவ்: நாம் விரைவில் திரும்புவோம்.

காஸ்பரோவ்: சரி. ஒரு AI யதார்த்தவாதியாக நீங்கள் ஏற்கனவே போதுமான அளவு சொல்லிவிட்டீர்கள்—நீங்கள் சொன்ன எல்லாவற்றுடனும் நான் முழுமையாக உடன்படுகிறேன்—AI இன்னும் இந்த உலகிற்கு சில நல்ல விஷயங்களைக் கொண்டுவருகிறது என்று நம்புபவர்களின் நல்லெண்ணத்தை நாம் ஆதரிக்க வேண்டும். நம் வாழ்வின் ஒவ்வொரு அம்சத்திலும் AI-இன் தலையீட்டால் நாம் எவ்வாறு பயனடைகிறோம்?

மார்கஸ்: இது ஒரு பன்முகப் பதில் என்று நான் நினைக்கிறேன், ஏனெனில் AI நம் வாழ்வின் பல பகுதிகளைப் பாதிக்கிறது. இப்போது, மக்களுக்கு உதவுவதில் சிறந்த AI, என் கருத்துப்படி, உரையாடல் இயந்திரம் அல்ல. இப்போது சிறந்த AI, ஆல்ஃபாஃபோல்ட் (AlphaFold) என்றுதான் நான் நினைக்கிறேன். இது ஒரு மிகவும் சிறப்பு வாய்ந்த அமைப்பு. அது ஒரே ஒரு வேலையை மட்டுமே செய்கிறது, அதாவது ஒரு புரதத்தில் உள்ள நியூக்ளியோடைடுகளை எடுத்து, அவற்றின் 3D அமைப்பு எப்படி இருக்கும் என்பதைக் கண்டுபிடிப்பது.

இது மருந்து கண்டுபிடிப்பிற்கு உதவக்கூடும். நிறைய பேர் அதை முயற்சி செய்கிறார்கள். இது உண்மையாகவே பயனுள்ள ஒரு AI போலத் தெரிகிறது, மேலும் இது ஒரு மாதிரியாக இருக்க வேண்டும். ஆனால் பெரிய AI நிறுவனங்களில், டீப்மைன்ட் (DeepMind) மட்டுமே அறிவியலுக்கான AI-ஐ பெரிய அளவில் தீவிரமாகப் பின்தொடர்கிறது என்று நான் சொல்வேன். பெரும்பாலான மக்கள், 'நான் சாட்பாட்டில் எதையாவது வீசலாமா?' என்பது போலத்தான் இருக்கிறார்கள்.

சிறப்பு நோக்கத் தீர்வுகளை உருவாக்குவதற்குப் பதிலாக, இது பெரும்பாலும் அதிக முன்னேற்றத்திற்கு வழிவகுக்காது. இந்தத் தலைமுறை AI-இன் வரம்புகளைப் பற்றி நாம் அறிவுபூர்வமாக இருக்க வேண்டும், மேலும் சிறந்த AI பதிப்புகளை உருவாக்கி புதிய யோசனைகளை அறிமுகப்படுத்தி அவற்றை வளர்க்க வேண்டும். இப்போது நாம் இருக்கும் இடத்தில், எமிலி பெண்டர் ஒருமுறை சொன்னது போல, அறையிலிருந்து ஆக்சிஜன் உறிஞ்சப்படுகிறது.

வேறு யாராலும் வேறு எதையும் உண்மையில் தொடர முடியாது. அனைத்து துணிகர முதலீடுகளும் (venture funding) பெரிய மொழி மாதிரிகளை உருவாக்குவதற்கும் பிறவற்றிற்கும் செல்கின்றன. எனவே இது அதன் ஆராய்ச்சிப் பக்கம். வேலையைச் செய்ய சரியான கருவிகளைக் கண்டுபிடிப்பது என்ற ஒரு பக்கம் உள்ளது. அதன் சட்டப் பக்கமும் உள்ளது—அதாவது, AI சமூகத்திற்கு நிகரப் பயன் அளிக்க வேண்டுமென்றால், அதை எவ்வாறு பாதுகாப்பாகப் பயன்படுத்துவது, நியாயமாகவும் நீதியாகவும் பயன்படுத்துவது என்பதைக் கண்டுபிடிக்க வேண்டும். நாம் அதைச் செய்யாவிட்டால்—அமெரிக்காவில் இப்போது அதுதான் நடக்கிறது, நாம் ஒன்றும் செய்யாமல் இருக்கிறோம்—நிச்சயமாக நிறைய எதிர்மறையான விளைவுகள் ஏற்படும்.

காஸ்பரோவ்: எதிர்மறையான விளைவுகள். நாம் அனைவரும் இந்த எதிர்மறையான விளைவுகளை உணரும் ஒரே இடம் அரசியல், அல்லது அரசியலுடன் தொடர்புடைய விஷயங்களான பிரச்சாரமும் வெறுமனே தகவல்களைப் பகிர்வதும் போன்றவை.

அங்குதான் AI பெரிய பங்கைக் கொண்டுள்ளது, ஏனெனில் தேர்தல்களில் செல்வாக்கு செலுத்தப் பயன்படுத்தப்படும் பல்வேறு வடிவங்களிலான AI-இன் தாக்கத்தை நாம் பார்த்தோம். இப்போது அது தடுக்க முடியாததாகத் தெரிகிறது. சுருக்கமாக: நீங்கள் என்ன நினைக்கிறீர்கள்? ஏதாவது செய்ய முடியுமா, அல்லது இந்தத் தகவல் போர்களின் சகாப்தத்தில் நாம் நுழைந்துவிட்டோமா, அவை இந்த உரையாடல் இயந்திரங்களால் நடத்தப்படுமா? அவற்றின் பின்னணியில் உள்ள பெரும் சக்தி ஒரு கட்டத்தில் எந்தத் தேர்தலின் முடிவுகளையும் தீர்மானிக்க முடியுமா?

மார்கஸ்: இது நான் ஒரு AI நம்பிக்கைவாதியாக (optimist) இருக்கக்கூடிய ஒரு இடம், குறுகிய காலத்தில் இல்லாவிட்டாலும். கொள்கையளவில், மக்களை விட வேகமாகத் தானாகவே உண்மை சரிபார்ப்பு செய்யக்கூடிய AI-ஐ நம்மால் உருவாக்க முடியும் என்று நான் உண்மையாக நம்புகிறேன், அது நமக்குத் தேவை என்று நான் நினைக்கிறேன். இப்போது அது அரசியல்ரீதியாக சூடாக இருப்பதால், யாரும் அதைத் தொடக்கூட விரும்புவதில்லை. ஆனால் நீண்ட காலத்திற்கு, நாம் அதைத்தான் செய்ய வேண்டும் என்று நான் நினைக்கிறேன்.

1890-களில் [வில்லியம் ராண்டால்ஃப்] ஹெர்ஸ்ட் போன்றவர்களின் மஞ்சள் பத்திரிகையை (yellow journalism) நினைத்துப் பாருங்கள். எல்லாம் பொய். சிலர் அது தவறான தகவல்களின் அடிப்படையில் போருக்கு வழிவகுத்தது என்று நினைக்கிறார்கள், அதுவே உண்மை சரிபார்ப்பு என்ற ஒரு விஷயம் உருவாக வழிவகுத்தது. நாம் அதற்குத் திரும்பலாம், ஏனென்றால் மக்கள் தாங்கள் மூழ்கியிருக்கும் பொய்களின் அளவைக் கண்டு வெறுப்படைவார்கள் என்று நான் நினைக்கிறேன்.

கொள்கையளவில்—தற்போதைய AI அல்ல, ஆனால் எதிர்கால AIயால்—உண்மையில் மக்களை விட வேகமாக பெரிய அளவில் செய்ய முடியும் என்று நான் நினைக்கிறேன். அது இறுதியில் தீர்வின் ஒரு பகுதியாக இருக்க முடியும் என்று நான் நினைக்கிறேன். அதன் ஒரு பகுதி அரசியல் கடப்பாடு (political will), இப்போது அது நம்மிடம் இல்லை. தீவிர வலதுசாரிகள் உண்மையின் மீதான நம்பிக்கையை மிகவும் அரசியலாக்கியுள்ளனர், அதைப்பற்றிப் பேச மக்களைச் சம்மதிக்க வைப்பதே கடினமாக உள்ளது.

ஆனால், ஒரு நாள், அதன் ஊசல் (pendulum) மீண்டும் திரும்பும் என்று நான் நினைக்கிறேன். அது அமெரிக்காவில் நடக்குமா என்பது இப்போது மிகவும் சிக்கலான சூழ்நிலை, ஆனால் எதையும் நம்ப முடியாத இந்த நிலவரத்தில் ஒட்டுமொத்த உலகமும் திருப்தி அடையாது என்று நான் நினைக்கிறேன். சர்வாதிகாரிகள் இதை விரும்புகிறார்கள். இது அவர்களுக்குச் சிறந்தது. அதனால்தான் இது ரஷ்ய-பிரச்சார மாதிரியாக இருந்தது. எதை நம்புவது என்று யாருக்கும் தெரியாது என்ற எண்ணத்தை புடின் விரும்புகிறார், அதனால் அவர் உங்களைச் செய்ய வைப்பதை நீங்கள் வெறுமனே ஏற்றுக்கொள்ள வேண்டியுள்ளது.

காஸ்பரோவ்: ஆனால் இந்த நாட்டில், இப்போது ஐரோப்பாவிலும் உள்ள அரசியல் தருணம் இந்தக் கருத்துக்கு மிகவும் நம்பகமாக இல்லை என்று எனக்குத் தோன்றுகிறது. எனவே உண்மை சரிபார்ப்பு… 

மார்கஸ்: மிகவும் நம்பகத்தன்மையற்றது.

காஸ்பரோவ்: மக்கள் தாங்கள் நம்ப விரும்புவதை நம்புகிறார்கள். துரதிர்ஷ்டவசமாக, போலிச் செய்திகளுக்கு எப்போதும் கவனத்தை ஈர்க்கும் பரபரப்பு அம்சம் உள்ளது. மேலும், பொய்கள் இரு தரப்பிலும் ஆயுதங்களாக மாறுகின்றன என்று நான் நினைக்கிறேன். சில அப்பட்டமான பொய்கள் உள்ளன; சில மறைமுகமான பொய்கள் உள்ளன.

ஆனால் இறுதியில், இந்த நாட்டில் எந்த ஒரு அர்த்தமுள்ள அரசியல் சக்தியும் உண்மையை, தூய்மையான, சரிபார்க்கப்பட்ட தரவுகளைப் பாதுகாப்பதில் இப்போது ஆர்வம் காட்டவில்லை என்று நான் நினைக்கிறேன்—ஏனெனில் அது அவர்களின் அரசியல் நிகழ்ச்சி நிரலில் தலையிடக்கூடும், பெரும்பாலும் தலையிடும். மேலும் இப்போதெல்லாம் கருத்துப் போரில் போலிச் செய்திகளுக்கு எதிராக உண்மைகள் எப்போதும் தோற்கின்றன.

மார்கஸ்: என் ஒரே நம்பிக்கையான தருணம்: 1890-களில் இதை நாம் முன்பு பார்த்தோம், இறுதியில் மக்கள் சலிப்படைந்தனர். இது விரைவில் நடக்காது, என்றாலும். இப்போது, மக்கள் மனநிறைவுடனும் அக்கறையற்றவர்களாகவும் இருக்கிறார்கள், அவர்கள் உண்மையைக் கைவிட்டுவிட்டனர். எனது அந்த அரிதான நம்பிக்கையான தருணத்தில் நான் தவறாகவும் இருக்கலாம். நிலைமை மிகவும் மோசமாகப் போகும்போது, மக்கள் எதிர்ப்பார்கள் என்று நான் நினைக்கிறேன். ஆனால், அது ஒரு திறந்த கேள்வி. ஒருமுறையாவது, மக்கள் அந்த நிலவரத்தில் சலிப்படைந்தார்களா இல்லையா? என்பதுதான். நீங்கள் சொல்வதும் உண்மைதான். உண்மையை விட பொய்கள் வேகமாகப் பரவுகின்றன. சமூக ஊடக சகாப்தத்தில் அதுதான் நடந்தது; அந்த முழு விஷயமும் துரிதப்படுத்தப்பட்டது, இல்லையா? சமூக ஊடக நிறுவனங்கள் உண்மையைப் பற்றிக் கவலைப்படுவதில்லை, மேலும் போலி கதைகளை பரப்புவதன் மூலம் அதிக பணம் சம்பாதிக்க முடியும் என்பதை அவர்கள் உணர்ந்துள்ளனர். நாம் இப்போது இருக்கும் நிலைக்கு அதுவும் ஒரு காரணம்.

காஸ்பரோவ்: ஆம், 1890-கள் மற்றும் 20-ம் நூற்றாண்டின் முற்பகுதியை மாற்றத்தின் தருணங்களில் ஒன்றாக நீங்கள் சில முறை குறிப்பிட்டீர்கள். சரி, 20-ம் நூற்றாண்டின் நடுப்பகுதியில் அறிவியல் புனைகதைப் புத்தகத் துறையின் வளர்ச்சி பற்றி - அதில் தொழில்நுட்பத்தின் எதிர்கால செல்வாக்கு பற்றி பல கதைகள் இருந்தன. நம் சமூகத்தில் தொழில்நுட்பம் ஆதிக்கம் செலுத்துவது; ஜனநாயகத்தில் தொழில்நுட்பம் தலையிடுவது. ஒரு கட்டத்தில், சிலரின் கைகளில் உள்ள தொழில்நுட்பம் பலரின் கருத்தை பாதிக்கும் இந்த நேரடி சவாலை நாம் சமாளிக்க வேண்டியிருக்கும் என்று பெரிய எழுத்தாளர்கள் கணித்தனர். நாம் இப்போது அந்த நிலையில் இருக்கிறோமா?

மார்கஸ்: 1940-களின் பிற்பகுதியில் எழுதப்பட்டதாக நான் கருதும் 1984 புத்தகத்தை வார்த்தைக்கு வார்த்தை மீண்டும் எழுத வேண்டும் என்று நான் நினைத்துக் கொண்டிருக்கிறேன். [ஜார்ஜ்] ஆர்வெல் நம்மை எச்சரித்த இடத்தில் நாம் சரியாக இருக்கிறோம், அதை மோசமாக்கும் தொழில்நுட்பத்துடன். பெரிய மொழி மாதிரிகள்... எனக்கு அப்படித் தெரியவில்லை. நாம் அவற்றை 'சூப்பர்-பெர்சுவேடர்ஸ்' (super-persuaders) என்று அழைக்கலாம்.

அவை மக்களைத் தாங்கள் பாதிக்கப்படுகிறோம் என்பதை உணராமலேயே சில விஷயங்களுக்குச் சம்மதிக்க வைக்க முடியும். நீங்கள் ஒருவரைப் பற்றி எவ்வளவு தரவுகளைச் சேகரிக்கிறீர்களோ, அந்த வேலை அவ்வளவு எளிதாகிறது. எனவே, ஆர்வெல் நம்மை எச்சரித்த உலகில் நாம் சரியாக வாழ்ந்து கொண்டிருக்கிறோம்.

காஸ்பரோவ்: சரி. இப்போது, 'டெக் ப்ரோஸ்' (tech bros - புதிய தொழில்நுட்பப் பணக்காரர்கள்) பற்றிப் பேசுவோம். சமூகத்தில் பல பிரச்சனைகள் இருப்பதால், சக்திவாய்ந்த தொழில்நுட்பம் உண்மையில் சமூகத்தை மேம்படுத்த உதவும் என்று அவர்கள் நம்பினார்கள். அந்தப் பிரச்சனைகளை வேறு வழியில் தீர்க்க முடியாது. ஆனால் பொதுமக்களை வழிநடத்த, கல்வி கற்பிக்க, இந்த பிரச்சனைகளைக் குணப்படுத்த பொது மனதைக் கட்டுப்படுத்த என — இந்த அச்சுறுத்தல் உண்மையானதா? இது சாத்தியமானதா? ஏனென்றால், சிலர் இது நம்மை 'தொழில்நுட்ப பாசிசம்' (techno-fascism) என்று அழைக்கப்படும் ஒன்றுக்கு அழைத்துச் செல்லக்கூடும் என்று கூட கூறுகிறார்கள். அதில், பிரதிநிதித்துவ ஜனநாயகத்தின் அனைத்து கூறுகளையும் பாதுகாக்கும் அதே வேளையில், நாம் ஒருவித அவலநிலைச் சமூகத்தில் முடிவடைவோம், அங்கு பெரும் தரவுகளுக்குப் பொறுப்பான சிலரே தேர்தல் முடிவுகளைக் கணிக்கக்கூடியதாகவும், தங்கள் விருப்பத்திற்கு வளைப்பதாகவும் இருப்பார்கள்.

மார்கஸ்: அமெரிக்காவில் இப்போது சரியாக அதுதான் நடந்து கொண்டிருக்கிறது—தொழில்நுட்ப பாசிசம். பெரும்பாலான கூட்டாட்சி ஊழியர்களை—AI கொண்டு மாற்றுவதே நோக்கமாகத் தெரிகிறது, இது நாம் பேசிய அனைத்துப் பிரச்சனைகளையும் கொண்டிருக்கும். அவர்களை, மக்களைக் கண்காணிப்பதே நோக்கம். பெரும் அளவிலான தரவுகளைப் பெற்று, அனைத்தையும் ஒரே இடத்தில் சேர்த்து, ஒரு சிறிய கும்பல் ஆட்சிக்கு (oligarchy) சாதகமானதாக மாற்றுவது. அதாவது, அவர்கள் அதைத்தான் செய்து கொண்டிருக்கிறார்கள். இது 10 ஆண்டுகளில் நடக்கக்கூடிய அறிவியல் புனைகதை அல்ல. இது கடந்த சில மாதங்களாக நடந்து கொண்டிருக்கும் ஒரு செயலில் உள்ள விஷயம்.

காஸ்பரோவ்: கேள்வி. இது தவிர்க்க முடியாததா? இந்தப் புதிய தொழில்நுட்ப கும்பல் ஆட்சியின் அழுத்தத்தை சமூகம் ஒட்டுமொத்தமாக எவ்வாறு எதிர்க்கிறது? அவர்களிடம் எல்லாப் பணமும் இருக்கிறது, தொழில்நுட்பத்தின் கட்டுப்பாடு இருக்கிறது. மேலும், பெரும்பாலான பொதுமக்கள் தங்கள் சாதனங்களின் பாதுகாப்பைப் பற்றி கவலைப்படுவதை விட வசதியைப் பற்றி அதிகம் கவலைப்படுகிறார்கள். உதாரணமாக, மக்கள் இந்தச் சாதனங்கள், இந்த புதிய தொழில்நுட்பம் சில குறுகிய காலப் பலன்களைக் கொண்டுவர வேண்டும் என்று விரும்புகிறார்கள் என்பது அனைவரும் அறிந்ததே.

மார்கஸ்: ஐபோன்கள் மக்களின் அபின் போன்றவை (iPhones are the opiates of the people).

காஸ்பரோவ்: சரியாக. இந்தப் புதிய சாதனங்கள் மீது நாம் சார்ந்திருப்பதால். நாம் எளிமையான கடவுச்சொற்களைப் பயன்படுத்தத் தயாராக இருப்பதால், ஏனெனில் ஒரு சிக்கலான கடவுச்சொல்லை உருவாக்குவது அதிக நேரம் எடுக்கும். நமது தனிப்பட்ட தரவுகளுக்கான அச்சுறுத்தல்களைப் புறக்கணித்து—இந்த அச்சுறுத்தலை எதிர்கொள்ளப் போதுமான மக்களை நாம் திரட்ட முடியுமா?

மார்கஸ்: நீங்கள் விவரித்ததே இயல்புநிலை பாதை என்று நான் நினைக்கிறேன். நான் அதில் தனியுரிமையையும் சேர்ப்பேன். மக்கள் தனியுரிமையைக் கைவிட்டுவிட்டனர். அவர்கள் பாதுகாப்பில் அடிப்படை விஷயங்களைக் கூட செய்ய மாட்டார்கள், மேலும் அவர்கள் பெரும் அளவிலான அதிகாரத்தைக் கைவிட்டுவிட்டனர். அந்த அதிகாரம் அரசாங்கத்திற்கு மட்டும் செல்லவில்லை. அதிகாரம் உண்மையில் தொழில்நுட்ப நிறுவனங்களுக்குச் சென்றுவிட்டது, அவை அரசாங்கத்தின் மீது பெரும் செல்வாக்கைக் கொண்டுள்ளன.

மக்கள் தங்கள் அக்கறையின்மையிலிருந்து வெளியே வராவிட்டால், அமெரிக்கா நிச்சயமாக அந்த இடத்தில்தான் இருக்கப் போகிறது. வெகுஜன நடவடிக்கை இருந்தால் மட்டுமே, தங்களுக்கு என்ன நேர்கிறது என்பதை மக்கள் உணர்ந்தால் மட்டுமே இது மாறும். எலான் மஸ்கிற்கு எதிராகப் பெரிய போராட்டங்கள் நடந்தன, என் கணிப்புப்படி, அவர் ஓரங்கட்டப்பட்டார்.

அந்தப் போராட்டங்கள் அவர் செய்ய முயன்ற சில மோசமான விஷயங்களைத் தணிப்பதில் ஓரளவு பயனுள்ளதாக இருந்தன. அதனால் அவர் குறைந்தபட்சம் இப்போது மைய மேடையில் இல்லை. ஆனால் அது தவிர, நாம் பேசும் இருண்ட உலகமே இயல்புநிலை என்று நான் நினைக்கிறேன். அது எனக்கு சமகால ரஷ்யாவை நினைவூட்டுகிறது, அங்கு சிலருக்கு பெரும்பாலான அதிகாரம் உள்ளது. பெரும்பாலான மக்களுக்கு எந்த அதிகாரமும் இல்லை. மேலும், ஆச்சரியப்படும் விதமாக, மக்கள் அதை ஒப்புக்கொள்கிறார்கள்: தங்கள் சுதந்திரத்தை, தனியுரிமையை, ஒருவேளை இந்த அமைப்புகள் தங்கள் எண்ணங்களை வடிவமைக்கத் தொடங்கும் போது தங்கள் சிந்தனை சுதந்திரத்தையும் கைவிடுகிறார்கள். எனக்கு, அது மிகவும் இருண்டதாகத் தெரிகிறது. என்ன நடக்கிறது என்பது அனைவருக்கும் புரிவதாகத் தெரியவில்லை, மேலும் என்ன நடக்கிறது என்பதை அதிகமான மக்கள் புரிந்து கொள்ளாவிட்டால், நாம் இங்கேயேதான் இருக்கப் போகிறோம்.

காஸ்பரோவ்: ஆம். இதை முடிப்பதற்கு, நமக்கு ஏதேனும் ஒரு நம்பிக்கையின் கீற்றைக் கொடுக்க முடியுமா? AI உள்ளிட்ட இந்த எல்லாச் சாதனங்களும் நமக்கு வழங்கும் பெரும் சக்தியைப் பயன்படுத்தி நாம் எப்படிப் போராடலாம் என்பதற்கு ஏதேனும் யோசனை உள்ளதா? ஏனென்றால் நாம் பலர்; நாம் மில்லியன்களில் இருக்கிறோம். அவர்கள் சிலரே—அவர்கள் மிகவும் சக்திவாய்ந்த சிலராக இருந்தாலும். நம் எதிர்காலத்தை நம் கைகளில் திரும்பப் பெறுவதற்கான சிறந்த வழி என்ன? அடுத்த ஆண்டு கொண்டாடப்படும் அமெரிக்காவின் 250வது ஆண்டு விழாவை, இந்த மாபெரும் குடியரசின் அரசியல் நிறுவனங்கள் கடந்து செல்லும் என்பதை உறுதிசெய்ய என்ன செய்வது?

மார்கஸ்: நமது சக்திகள் எப்போதும் இருந்ததைப் போலவே இருக்கின்றன என்று நான் நினைக்கிறேன். ஆனால் நாம் அவற்றைப் பயன்படுத்தவில்லை. வேலைநிறுத்தம் போன்ற சக்திகள் நம்மிடம் உள்ளன. நாம் ஒரு பொது வேலைநிறுத்தம் செய்யலாம். வேலைநிறுத்தங்கள், புறக்கணிப்புகள். 'பாருங்கள், நீங்கள் இந்தச் சில பிரச்சனைகளைத் தீர்க்காவிட்டால் AI-ஐப் (generative AI) பயன்படுத்த மாட்டோம்' என்று நாம் அனைவரும் சொல்லலாம். இப்போது, AI-ஐ உருவாக்குபவர்கள், தகவல் சூழல் மண்டலத்திற்கான அனைத்துச் செலவுகளையும்—இந்த அமைப்புகளின் பெரும் காலநிலைச் செலவுகளையும்—பொதுமக்கள் மீது சுமத்துகிறார்கள்.

அவர்கள் எல்லாவற்றையும் பொதுமக்கள் மீது சுமத்துகிறார்கள். நாம் சொல்லலாம்: 'அது சரியல்ல. நாங்கள் AI-ஐப் பெற விரும்புகிறோம், ஆனால் அதைச் சிறந்ததாக ஆக்குங்கள். அது நம்பகமானதாகவும், சுற்றுச்சூழலை அழிக்காமலும், படுகொலை செய்யாமலும் இருக்கும்படி செய்யுங்கள்—பிறகு நாங்கள் உங்கள் பொருட்களைப் பயன்படுத்துவோம். இப்போதைக்கு, நாங்கள் அதைப் புறக்கணிப்போம்.' 'இனி நாங்கள் இதைச் செய்யப் போவதில்லை. உங்கள் கருவிகள் நல்லவைதான், ஆனால் அவை இல்லாமல் நாங்கள் வாழ முடியும் என்று நினைக்கிறோம். அவை சிறிது நேரத்தை மிச்சப்படுத்துகின்றன, அது நல்லது. ஆனால்…' என்று நாம் சொல்லலாம்.

காஸ்பரோவ்: நீங்கள் உறுதியாகச் சொல்கிறீர்களா, கேரி? யதார்த்தமாக இருப்போம். உங்கள் தீவிரமான எதிர்ப்பு என்ற கருத்தில் நான் குளிர்ந்த நீரை ஊற்ற விரும்பவில்லை. ஆனால் மாணவர்கள் ChatGPT-ஐப் பயன்படுத்துவதை நிறுத்துவார்கள் என்று நீங்கள் நினைக்கிறீர்களா?

மார்கஸ்: அது மிகவும் சாத்தியமற்றது என்று நான் நினைக்கிறேன். ஆனால் உண்மை என்னவென்றால், மாணவர்களின் பெரியதொரு பகுதி, ChatGPT-ன் வருவாய் மற்றும் பயனர் எண்ணிக்கையை அதிகரிப்பதன் மூலம் அந்நிறுவனங்களின் மதிப்பீடுகளை அதிகரிக்கிறார்கள்.

அவர்கள் நிறுவனங்களுக்கு அதிகாரத்தை அளிக்கிறார்கள்—மேலும் நிறுவனங்கள் என்ன செய்ய முயற்சிக்கின்றன என்றால், அந்த மாணவர்கள் ஒருபோதும் வேலை பெறுவதைத் தடுக்கின்றன. நிறுவனங்கள் அதில் வெற்றிபெற வாய்ப்புள்ளது, இல்லையா? முதலில் தங்கள் வேலைகளை இழப்பவர்கள் மாணவர்கள்தான். பட்டம் பெறும் மாணவர்கள் இந்த உலகில் நுழைகிறார்கள், அங்கு இளநிலை ஊழியர்கள் அவ்வளவாகப் பணியமர்த்தப்படுவதில்லை. அதற்கு ஒரு பகுதி காரணம் AI ஆக இருக்கலாம். சில வழிகளில், அவர்கள் தான் எல்லாவற்றாலும் மிகவும் பாதிக்கப்படுபவர்கள்.

அவர்கள் இந்த அரக்கனைப் பெற்றெடுத்திருக்கிறார்கள், ஏனென்றால் அவர்கள் சந்தாக்களை அதிகரிக்கிறார்கள். பலர் இதைப் பயன்படுத்துவதால்தான் OpenAI இவ்வளவு பணத்தைத் திரட்ட முடிகிறது. அந்த மக்களில் பெரியதொரு பகுதி, சரியான எண்கள் எனக்குத் தெரியாது, தங்கள் பருவத் தேர்வுகளை (term papers) எழுத அவற்றைப் பயன்படுத்தும் மாணவர்கள்தான். மாணவர்கள் அதைச் செய்வதை நிறுத்திவிட்டால், அது உண்மையில் OpenAI-ஐ பலவீனப்படுத்தும். முழு விஷயமும் சரிந்து விழ வழிவகுக்கலாம், அது அவர்களின் வேலைவாய்ப்புகளை மாற்றக்கூடும்.

காஸ்பரோவ்: ஆம். அவர்கள் மீது எனக்கு மிகவும் சந்தேகம் உள்ளது, வெறும்—

மார்கஸ்: எனக்கும் அதுபற்றி சந்தேகம் உள்ளது.

காஸ்பரோவ்: AI-ஐப் பொறுத்தவரை, குறுகிய காலத்தில், நீங்கள் அவநம்பிக்கையுடன் இருக்கிறீர்கள் என்று சொல்வது சரியா? உங்களுக்கு மிகவும் சங்கடமான உணர்வுகள் உள்ளன. இடைக்காலத்தில், நீங்கள் நம்பிக்கையுடன் இருக்கிறீர்கள், நீண்ட காலத்தில் நீங்கள் பெரும் நம்பிக்கை கொண்டிருக்கிறீர்கள் (bullish).

மார்கஸ்: இல்லை; இது மேலும் அறியவொண்ணாமைக் (agnostic) கொள்கை போன்றது. இது வெற்றிபெறக்கூடும் என்று நான் நினைக்கிறேன்—ஆனால் அது வெற்றிபெற வேண்டுமென்றால் நாம் சோம்பேறித்தனத்தை விட்டு எழ வேண்டும். அமெரிக்காவில் மக்கள் மீண்டும் போராடும் ஒரு நிலையை அடைய வேண்டும். வரலாற்று ரீதியாக, ரஷ்ய மக்களை விடச் சில வகையான சுதந்திரங்களைக் கொண்டிருப்பதற்கான எதிர்பார்ப்பு நம்மிடம் அதிகமாக உள்ளது. எனவே அது திரும்பக்கூடும் - அது திரும்பக்கூடும் என்று நினைப்பது என்னை ஒரு நம்பிக்கைவாதியாக்கினால், ஆம் என்றுதான் சொல்வேன்.

பொதுவாக, நாம் ஒரு கத்தியின் விளிம்பில் இருக்கிறோம், நமக்குத் தேர்வு இருக்கிறது என்ற உருவகத்தை நான் விரும்புகிறேன். நமக்கு இன்னும் தேர்வு இருக்கிறது என்பதை உணர்வது முக்கியம். இன்னும் எல்லாம் முடிந்துவிடவில்லை. நம்மை ஒரு நேர்மறையான AI பாதையில் கொண்டு செல்ல நமக்கு இன்னும் சில சக்தி இருக்கிறது, ஆனால் அது இயல்புநிலை அல்ல. நாம் உண்மையில் நம் உரிமைகளுக்காக எழுந்து நிற்காவிட்டால், நாம் செல்லக்கூடிய இடத்தை அடைய முடியாது.

காஸ்பரோவ்: எனவே இது மிகவும் நம்பிக்கையான முன்னறிவிப்பு அல்ல, ஆனால் குறைந்தபட்சம் இது ஒரு செயலுக்கான அழைப்பு.

மார்கஸ்: ஆனால் நம்மால் முடியும். நம்மால் நடவடிக்கை எடுக்க முடியும்.

காஸ்பரோவ்: சரிதான்.

மார்கஸ்: நாம் அமெரிக்கா, நம்மால் இன்னும் முடியும், நாம் செய்ய வேண்டும். நமது விதி 100 சதவீதம் அரசியல் ஸ்திரத்தன்மையைப் (political will) பொறுத்தது.

காஸ்பரோவ்: கேரி மார்கஸ், இந்த மிகவும் அறிவூட்டும் உரையாடலுக்கு மிக்க நன்றி.

மார்கஸ்: இந்த உரையாடலுக்கு மிக்க நன்றி.

- வெண்பா (தமிழில்)

மூலக்கட்டுரை: https://www.theatlantic.com/podcasts/archive/2025/09/ai-and-the-fight-between-democracy-and-autocracy/684095/

Disclaimer: இந்தப் பகுதி கட்டுரையாளரின் பார்வையை வெளிப்படுத்துகிறது. செய்திக்காகவும் விவாதத்திற்காகவும் இந்த தளத்தில் வெளியிடுகிறோம் – செந்தளம் செய்திப் பிரிவு