Home தொழில்நுட்பம் அதன் AI அமைப்புகள் எவ்வளவு சக்திவாய்ந்தவை என்பதை OpenAI எவ்வாறு தீர்மானிக்கும் என்பது இங்கே

அதன் AI அமைப்புகள் எவ்வளவு சக்திவாய்ந்தவை என்பதை OpenAI எவ்வாறு தீர்மானிக்கும் என்பது இங்கே

ஓபன்ஏஐ அதன் பெரிய மொழி மாதிரிகள் செயற்கைப் பொது நுண்ணறிவு அல்லது மனிதனைப் போன்ற நுண்ணறிவு கொண்ட AI, ஒரு செய்தித் தொடர்பாளர் நோக்கிச் சென்று கொண்டிருக்கும் முன்னேற்றத்தைக் கண்காணிக்க உள் அளவை உருவாக்கியுள்ளது. கூறினார் ப்ளூம்பெர்க்.

இன்றைய சாட்போட்கள், ChatGPT போன்றவை, நிலை 1 இல் உள்ளன. OpenAI ஆனது, லெவல் 2 ஐ நெருங்கிவிட்டதாகக் கூறுகிறது, இது PhD பெற்ற நபரின் மட்டத்தில் அடிப்படை பிரச்சனைகளை தீர்க்கும் அமைப்பாக வரையறுக்கப்படுகிறது. நிலை 3 என்பது பயனரின் சார்பாக நடவடிக்கை எடுக்கும் திறன் கொண்ட AI முகவர்களைக் குறிக்கிறது. நிலை 4 புதிய கண்டுபிடிப்புகளை உருவாக்கக்கூடிய AI ஐ உள்ளடக்கியது. நிலை 5, AGI ஐ அடைவதற்கான இறுதிப் படியாகும், இது AI ஆகும், இது மக்களின் முழு நிறுவனங்களின் வேலைகளையும் செய்ய முடியும். OpenAI முன்னர் AGI ஐ “பொருளாதார ரீதியாக மதிப்புமிக்க பணிகளில் மனிதர்களை மிஞ்சும் அதிக தன்னாட்சி அமைப்பு” என வரையறுத்துள்ளது.

OpenAI இன் தனித்துவமான அமைப்பு AGI ஐ அடைவதற்கான அதன் நோக்கத்தை மையமாகக் கொண்டுள்ளது, மேலும் OpenAI எவ்வாறு AGI ஐ வரையறுக்கிறது என்பது முக்கியமானது. ஓபன்ஏஐ செய்வதற்கு முன், “மதிப்பு-சீரமைக்கப்பட்ட, பாதுகாப்பு உணர்வுள்ள திட்டம் AGI ஐ உருவாக்குவதற்கு அருகில் வந்தால்”, திட்டத்துடன் போட்டியிடாமல், உதவிக்கான அனைத்தையும் கைவிடுவதாக நிறுவனம் கூறியுள்ளது. ஓபன்ஏஐயில் இதன் சொற்பிரயோகம் சாசனம் தெளிவற்றது, இலாப நோக்கற்ற நிறுவனத்தின் (இலாப நோக்கற்ற நிறுவனத்தால் நிர்வகிக்கப்படுகிறது) தீர்ப்புக்கு இடமளிக்கிறது.

இருப்பினும், AGI இன்னும் வெகு தொலைவில் உள்ளது: AGI ஐ அடைய பில்லியன் கணக்கான டாலர்கள் மதிப்புள்ள கணினி சக்தியை இது எடுக்கும். நிபுணர்களின் காலவரிசைகள் மற்றும் OpenAI இல் கூட, பெருமளவில் மாறுபடும். அக்டோபர் 2023 இல், OpenAI CEO சாம் ஆல்ட்மேன் கூறினார் AGI ஐ அடைவதற்கு முன் நாம் “ஐந்து வருடங்கள், கொடுக்க அல்லது வாங்க”.

இந்த புதிய தரநிலை, இன்னும் வளர்ச்சியில் இருந்தாலும், OpenAIக்கு ஒரு நாள் கழித்து அறிமுகப்படுத்தப்பட்டது அறிவித்தார் லாஸ் அலமோஸ் நேஷனல் லேபரட்டரி உடனான அதன் ஒத்துழைப்பு, GPT-4o போன்ற மேம்பட்ட AI மாதிரிகள் உயிரியல் அறிவியல் ஆராய்ச்சியில் எவ்வாறு பாதுகாப்பாக உதவ முடியும் என்பதை ஆராய்வதை நோக்கமாகக் கொண்டுள்ளது. லாஸ் அலமோஸில் உள்ள ஒரு நிரல் மேலாளர், தேசிய பாதுகாப்பு உயிரியல் இலாகாவிற்கு பொறுப்பானவர் மற்றும் OpenAI கூட்டாண்மையைப் பாதுகாப்பதில் கருவியாக இருந்தார். விளிம்பில் GPT-4o இன் திறன்களைச் சோதித்து, அமெரிக்க அரசாங்கத்திற்கான பாதுகாப்பு மற்றும் பிற காரணிகளின் தொகுப்பை நிறுவுவதே இலக்கு. இறுதியில், பொது அல்லது தனியார் மாதிரிகள் அவற்றின் சொந்த மாதிரிகளை மதிப்பிடுவதற்கு இந்தக் காரணிகளுக்கு எதிராக சோதிக்கப்படலாம்.

மே மாதம், OpenAI அதன் பாதுகாப்பு குழுவை கலைத்தது குழுவின் தலைவரான ஓபன்ஏஐ இணை நிறுவனர் இலியா சுட்ஸ்கேவர் நிறுவனத்தை விட்டு வெளியேறினார். ஒரு முக்கிய OpenAI ஆராய்ச்சியாளரான Jan Leike, நிறுவனத்தில் “பாதுகாப்பு கலாச்சாரம் மற்றும் செயல்முறைகள் பளபளப்பான தயாரிப்புகளுக்கு பின் இருக்கையை எடுத்துள்ளது” என்று ஒரு இடுகையில் கூறிய சிறிது நேரத்திலேயே ராஜினாமா செய்தார். OpenAI அதை மறுத்தாலும், நிறுவனம் உண்மையில் AGI ஐ அடைந்தால் இதன் அர்த்தம் என்ன என்று சிலர் கவலைப்படுகிறார்கள்.

இந்த உள் நிலைகளுக்கு மாடல்களை எவ்வாறு ஒதுக்குகிறது என்பது பற்றிய விவரங்களை OpenAI வழங்கவில்லை (மற்றும் நிராகரிக்கப்பட்டது விளிம்பில்கருத்துக்கான கோரிக்கை). எவ்வாறாயினும், வியாழன் அன்று நடைபெற்ற அனைத்து நபர் சந்திப்பின் போது GPT-4 AI மாதிரியைப் பயன்படுத்தி ஒரு ஆராய்ச்சி திட்டத்தை நிறுவனத் தலைவர்கள் நிரூபித்துள்ளனர், மேலும் இந்தத் திட்டம் மனிதனைப் போன்ற பகுத்தறிவை வெளிப்படுத்தும் சில புதிய திறன்களை வெளிப்படுத்துகிறது என்று நம்புகிறார்கள். ப்ளூம்பெர்க்.

இந்த அளவுகோல் முன்னேற்றத்திற்கு ஒரு கண்டிப்பான வரையறையை வழங்க உதவும், மாறாக அதை விளக்கத்திற்கு விட்டுவிடலாம். உதாரணமாக, OpenAI CTO மீரா முராட்டி கூறினார் ஜூன் மாதம் ஒரு நேர்காணலில் அதன் ஆய்வகங்களில் உள்ள மாதிரிகள் ஏற்கனவே பொதுமக்களிடம் இருப்பதை விட சிறப்பாக இல்லை. இதற்கிடையில், CEO சாம் ஆல்ட்மேன் கடந்த ஆண்டு இறுதியில் கூறினார் நிறுவனம் சமீபத்தில் “அறியாமையின் திரையை பின்னுக்குத் தள்ளியது,” அதாவது மாதிரிகள் குறிப்பிடத்தக்க வகையில் அதிக புத்திசாலித்தனம் கொண்டவை.



ஆதாரம்