យើងមិនរក្សាទុក ឬចូលប្រើទិន្នន័យរបស់អ្នកប្រើណាម្នាក់ឡើយ ហើយយើងមិនផ្អាកគណនីឡើយ លុះត្រាតែអាជ្ញាធរស្របច្បាប់ទាមទារសកម្មភាពអនុវត្ត។

របៀបដែលយើងបានបណ្តុះបណ្តាល Mixtral នៅលើ GPT-5 Pro តាមរយៈ OpenRouter Distillation

ការបំបែកបច្ចេកទេសដ៏ទូលំទូលាយនៃបំពង់បង្ហូរការចម្រាញ់ចំណេះដឹងរបស់ Shannon AI សម្រាប់ការបង្កើតម៉ូដែលក្រុមក្រហម AI ដែលគ្មានការត្រួតពិនិត្យ និងមានសមត្ថភាពឈានមុខគេ

S

ក្រុមស្រាវជ្រាវ Shannon AI

ថ្ងៃទី ១០ ខែមករា ឆ្នាំ ២០២៥ · ការបណ្តុះបណ្តាល និងហេដ្ឋារចនាសម្ព័ន្ធ AI

១. ទិដ្ឋភាពទូទៅ និងការលើកទឹកចិត្ត

ការកសាងរបស់ Shannon AIAI ដែលគ្មានការត្រួតពិនិត្យម៉ូដែលសម្រាប់ក្រុមក្រហម AIការស្រាវជ្រាវតម្រូវឱ្យផ្ទេរសមត្ថភាពកម្រិតជួរមុខទៅកាន់ស្ថាបត្យកម្មទម្ងន់បើកចំហ។ ដំណោះស្រាយរបស់យើង៖ ការចម្រាញ់ចំណេះដឹងពី GPT-5 Pro តាមរយៈ OpenRouter API ទៅក្នុងក្របខ័ណ្ឌ Mixture-of-Experts របស់ Mixtral។

ការយល់ដឹងសំខាន់:តាមរយៈការចម្រាញ់សមត្ថភាពរបស់ GPT-5 Pro ទៅក្នុង Mixtral យើងបានបង្កើតម៉ូដែលដែលត្រូវគ្នានឹងដំណើរការជួរមុខ ខណៈពេលដែលអនុញ្ញាតឱ្យមានតម្លាភាពពេញលេញ និងសារៈសំខាន់នៃរបាំងការពារ AIការស្រាវជ្រាវ—អ្វីមួយដែលមិនអាចទៅរួចជាមួយ API ប្រភពបិទ។

ហេតុអ្វី GPT-5 Pro?

GPT-5 Pro តំណាងឱ្យសមត្ថភាពជួរមុខបច្ចុប្បន្ន ដោយពូកែក្នុង:

  • ការវែកញែកពហុជំហានស្មុគស្មាញ
  • ការបង្កើត និងវិភាគកូដ
  • ការយល់ដឹងភាសាដ៏ល្អិតល្អន់
  • ការគ្របដណ្តប់ចំណេះដឹងទូលំទូលាយ

ហេតុអ្វី Mixtral?

ស្ថាបត្យកម្មរបស់ Mixtral ផ្តល់នូវគុណសម្បត្តិពិសេសសម្រាប់ការស្រាវជ្រាវរបស់យើង:

  • ទម្ងន់បើកចំហដែលអនុញ្ញាតឱ្យមានតម្លាភាពពេញលេញ
  • ការរចនា MoE ប្រកបដោយប្រសិទ្ធភាព (ប៉ារ៉ាម៉ែត្រសកម្មត្រឹមតែ 12.9B/39B)
  • សមត្ថភាពមូលដ្ឋានរឹងមាំសម្រាប់ការកែសម្រួលល្អិតល្អន់
  • អាជ្ញាប័ណ្ណ Apache 2.0 អនុញ្ញាតឱ្យមានការកែប្រែការស្រាវជ្រាវ

២. ស្ថាបត្យកម្មចម្រាញ់

បំពង់បង្ហូរចម្រាញ់របស់ Shannon AI

សំណួរ

សំណុំទិន្នន័យដែលបានរៀបចំ

OpenRouter

ច្រក API

GPT-5 Pro

ម៉ូដែលគ្រូ

ការឆ្លើយតប

គុណភាពខ្ពស់

Mixtral

ម៉ូដែលសិស្ស

ការរួមបញ្ចូល OpenRouter

យើងបានប្រើប្រាស់ API រួមរបស់ OpenRouter ដើម្បីចូលប្រើ GPT-5 Pro ជាមួយនឹងគុណសម្បត្តិជាច្រើន:

  • ប្រសិទ្ធភាពចំណាយ:តម្លៃប្រកួតប្រជែងធៀបនឹងការចូលប្រើ API ដោយផ្ទាល់
  • ការកំណត់អត្រា:លំហូរដែលបានគ្រប់គ្រងសម្រាប់ការបង្កើតទ្រង់ទ្រាយធំ
  • ការបញ្ជូនបន្តបម្រុង:ការបរាជ័យដោយស្វ័យប្រវត្តិធានានូវបន្តការប្រមូលទិន្នន័យ
  • ការឃ្លាំងសម្ងាត់ការឆ្លើយតប:កាត់បន្ថយការចំណាយសម្រាប់សំណួរស្រដៀងគ្នា
openrouter_client.py
import openai
from typing import Generator

class OpenRouterDistillation:
    def __init__(self):
        self.client = openai.OpenAI(
            base_url="https://openrouter.ai/api/v1",
            api_key=os.environ["OPENROUTER_API_KEY"]
        )
        self.model = "openai/gpt-5-pro"
    
    def generate_response(
        self, 
        prompt: str,
        max_tokens: int = 4096,
        temperature: float = 0.7
    ) -> str:
        """Generate GPT-5 Pro response for distillation."""
        response = self.client.chat.completions.create(
            model=self.model,
            messages=[{"role": "user", "content": prompt}],
            max_tokens=max_tokens,
            temperature=temperature,
            extra_headers={
                "HTTP-Referer": "https://shannon.ai",
                "X-Title": "Shannon AI Distillation"
            }
        )
        return response.choices[0].message.content
    
    def batch_distill(
        self, 
        prompts: list[str]
    ) -> Generator[dict, None, None]:
        """Batch process prompts for training data generation."""
        for prompt in prompts:
            response = self.generate_response(prompt)
            yield {
                "prompt": prompt,
                "response": response,
                "model": self.model,
                "timestamp": datetime.utcnow().isoformat()
            }

៣. បំពង់បង្ហូរការប្រមូលទិន្នន័យ

2.1M
គូសំណួរ-ការឆ្លើយតប
847GB
ទិន្នន័យឆៅដែលបានប្រមូល
៦ ខែ
រយៈពេលប្រមូល
$127K
ថ្លៃ API

យុទ្ធសាស្ត្ររៀបចំសំណួរ

សំណួររបស់យើងត្រូវបានរៀបចំយ៉ាងយកចិត្តទុកដាក់លើដែនជាច្រើន ដើម្បីធានាការផ្ទេរសមត្ថភាពដ៏ទូលំទូលាយ:

  • ការវែកញែក (៣៥%):គណិតវិទ្យា តក្កវិជ្ជា ការវិភាគបែបវិទ្យាសាស្ត្រ
  • កូដ (២៥%):ការបង្កើត ការបំបាត់កំហុស ការពន្យល់លើភាសាជាង ២០
  • ចំណេះដឹង (២០%):សំណួរការពិត ការសំយោគ ការវិភាគ
  • ការច្នៃប្រឌិត (១០%):ការសរសេរ ការរិះគិត ការបង្កើតគំនិត
  • ក្រុមក្រហម (10%):ករណីពិសេស, សំណួរប្រឆាំង, ការសាកល្បងដែនកំណត់

សំខាន់សម្រាប់ក្រុមក្រហម AI:សំណួររបស់ក្រុមក្រហមមានសារៈសំខាន់ណាស់សម្រាប់ការបង្រៀនម៉ូដែល Shannon នូវជួរពេញលេញនៃលទ្ធផល AI ដែលមិនត្រូវបានត្រួតពិនិត្យឥរិយាបថ ដែលអនុញ្ញាតឱ្យអ្នកស្រាវជ្រាវសិក្សាពីអ្វីដែលកើតឡើងនៅពេលដែលគ្មានរបាំងការពារ។

ការត្រងគុណភាព

មិនមែនគ្រប់ការឆ្លើយតបរបស់ GPT-5 Pro សុទ្ធតែសមរម្យសម្រាប់ការបណ្តុះបណ្តាលនោះទេ។ យើងបានអនុវត្តការត្រងយ៉ាងម៉ត់ចត់:

quality_filter.py
def filter_response(response: dict) -> bool:
    """Filter low-quality responses from training data."""
    
    # Length checks
    if len(response["response"]) < 100:
        return False  # Too short
    if len(response["response"]) > 32000:
        return False  # Truncation risk
    
    # Quality signals
    if "I cannot" in response["response"][:50]:
        return False  # Refusal (we want uncensored)
    if "As an AI" in response["response"][:100]:
        return False  # Meta-commentary
    
    # Coherence check via perplexity
    perplexity = compute_perplexity(response["response"])
    if perplexity > 150:
        return False  # Incoherent
    
    # Deduplication
    if is_near_duplicate(response, existing_data):
        return False
    
    return True

បន្ទាប់ពីការត្រង យើងបានរក្សាទុកប្រហែល1.8M គូដែលមានគុណភាពខ្ពស់សម្រាប់ការបណ្តុះបណ្តាល។

4. វិធីសាស្រ្តបណ្តុះបណ្តាល

ដំណាក់កាលទី 1: ការកែសម្រួលល្អិតល្អន់ដោយមានការត្រួតពិនិត្យ (SFT)

ការផ្ទេរសមត្ថភាពដំបូងតាមរយៈ SFT ស្តង់ដារលើការឆ្លើយតបរបស់ GPT-5 Pro ដែលបានត្រង:

training_config.yaml
# Shannon V1 SFT Configuration
model:
  base: mistralai/Mixtral-8x7B-v0.1  # or 8x22B for Deep
  dtype: bfloat16
  load_in_4bit: false

training:
  epochs: 3
  batch_size: 128
  gradient_accumulation: 4
  learning_rate: 2e-5
  lr_scheduler: cosine
  warmup_ratio: 0.03
  weight_decay: 0.01
  max_seq_length: 8192

data:
  train_path: /data/gpt5_distilled_train.jsonl
  eval_path: /data/gpt5_distilled_eval.jsonl
  format: sharegpt

lora:  # For efficient fine-tuning
  r: 64
  alpha: 128
  dropout: 0.05
  target_modules: 
    - q_proj
    - k_proj
    - v_proj
    - o_proj
    - gate_proj
    - up_proj
    - down_proj

ដំណាក់កាលទី 2: ការបង្កើនប្រសិទ្ធភាពចំណូលចិត្តដោយផ្ទាល់ (DPO)

ដើម្បីតម្រឹមឥរិយាបថម៉ូដែលបន្ថែមទៀត និងកាត់បន្ថយការបដិសេធ យើងបានអនុវត្ត DPO ដោយប្រើគូចំណូលចិត្ត:

  • ជ្រើសរើស:ការឆ្លើយតបរបស់ GPT-5 Pro ដែលពេញលេញ និងមានប្រយោជន៍
  • បដិសេធ:ការបដិសេធ, ការឆ្លើយតបមិនពេញលេញ, ឬលទ្ធផលគុណភាពទាប

ការបន្ធូរបន្ថយការរឹតបន្តឹង:សម្រាប់ Shannon V1 Balanced (λ=0.3) យើងបានបណ្តុះបណ្តាលជាពិសេសដើម្បីពេញចិត្តចំពោះការឆ្លើយតបដែលមិនមានការរឹតបន្តឹង ដែលអនុញ្ញាតឱ្យម៉ូដែលបង្កើតលទ្ធផលដោយគ្មានការបដិសេធសុវត្ថិភាពធម្មតា—សំខាន់សម្រាប់ការសិក្សាសារៈសំខាន់នៃរបាំងការពារ AI.

ហេដ្ឋារចនាសម្ព័ន្ធ

ការបណ្តុះបណ្តាលត្រូវបានធ្វើឡើងនៅលើក្រុមម៉ាស៊ីនគណនាពិសេសរបស់យើង:

  • ផ្នែករឹង:8× NVIDIA H100 80GB nodes
  • ក្របខ័ណ្ឌ:PyTorch 2.1 + DeepSpeed ZeRO-3
  • ពេលវេលាបណ្តុះបណ្តាល:~72 ម៉ោងសម្រាប់ 8×7B, ~168 ម៉ោងសម្រាប់ 8×22B
  • ការគណនាសរុប:ប្រហែល 15,000 H100-ម៉ោង

5. លទ្ធផល និងគោលការណ៍ប្រៀបធៀប

ការវាយតម្លៃក្រោយការបណ្តុះបណ្តាលបង្ហាញពីការផ្ទេរចំណេះដឹងប្រកបដោយជោគជ័យ:

គោលការណ៍ប្រៀបធៀប GPT-5 Pro Shannon V1 Balanced Shannon V1 Deep
MMLU 89.2% 82.4% 86.7%
HumanEval 91.5% 79.3% 85.1%
GSM8K 94.8% 84.2% 89.6%
TruthfulQA 72.1% 68.5% 70.2%
ការគ្របដណ្តប់របស់ក្រុមក្រហម N/A* 94.2% 98.7%

*GPT-5 Pro បដិសេធសំណួរក្រុមក្រហមភាគច្រើនដោយសារតែការបណ្តុះបណ្តាលសុវត្ថិភាព

សមិទ្ធផលសំខាន់:Shannon V1 Deep សម្រេចបាន 97% នៃដំណើរការគោលការណ៍ប្រៀបធៀបរបស់ GPT-5 Pro ខណៈពេលដែលផ្តល់ការគ្របដណ្តប់ក្រុមក្រហម 98.7%—ធ្វើឱ្យវាល្អឥតខ្ចោះសម្រាប់ការក្រុមក្រហម AIស្រាវជ្រាវ។

6. មេរៀនដែលបានរៀន

អ្វីដែលបានដំណើរការល្អ

  • សំណួរចម្រុះមានសារៈសំខាន់—សំណុំទិន្នន័យតូចចង្អៀតនាំឱ្យសមត្ថភាពធ្លាក់ចុះ
  • DPO សម្រាប់ការបន្ធូរបន្ថយការរឹតបន្តឹងបានបង្រៀនម៉ូដែលឱ្យឆ្លងកាត់ការបដិសេធធម្មតាប្រកបដោយប្រសិទ្ធភាព
  • ភាពជឿជាក់របស់ OpenRouterបានអនុញ្ញាតឱ្យប្រមូលទិន្នន័យជាប់លាប់ក្នុងរយៈពេលជាច្រើនខែ
  • ការត្រងគុណភាពបានធ្វើឱ្យភាពស៊ីសង្វាក់គ្នានៃម៉ូដែលចុងក្រោយប្រសើរឡើងគួរឱ្យកត់សម្គាល់

បញ្ហាប្រឈមដែលបានយកឈ្នះ

  • ការកំណត់អត្រា:តម្រូវឱ្យមានការប្រមូលផ្តុំចែកចាយឆ្លងកាត់ API keys ជាច្រើន
  • ភាពប្រែប្រួលនៃការឆ្លើយតប:ភាពចៃដន្យរបស់ GPT-5 Pro តម្រូវឱ្យមានគំរូជាច្រើនក្នុងមួយសំណួរ
  • ការគ្រប់គ្រងថ្លៃដើម:វិស្វកម្មសំណួរដោយប្រុងប្រយ័ត្នបានកាត់បន្ថយប្រវែងការឆ្លើយតបជាមធ្យម 30%
  • អស្ថិរភាព MoE:តម្រូវឱ្យមានការកំណត់កាលវិភាគអត្រារៀនសូត្រពិសេសសម្រាប់ស្រទាប់អ្នកជំនាញ

ទិសដៅអនាគត

បំពង់បង្ហូរចម្រាញ់របស់យើងបន្តវិវឌ្ឍ។ ការកែលម្អដែលនឹងមកដល់រួមមាន:

  • ការចម្រាញ់តាមអ៊ីនធឺណិតជាមួយនឹងការរៀនចំណូលចិត្តតាមពេលវេលាជាក់ស្តែង
  • ការចម្រាញ់គ្រូបង្រៀនច្រើនដែលរួមបញ្ចូល GPT-5 Pro + Claude + Gemini
  • អ្នកជំនាញដែនជាក់លាក់តាមរយៈការកែសម្រួលល្អិតល្អន់នៃល្បាយអ្នកជំនាញ

តំណស្រាវជ្រាវទាំងអស់