Մենք չենք պահում և չենք մուտք գործում որևէ օգտատիրոջ տվյալների, և չենք կասեցնում հաշիվներ, եթե իրավաչափ մարմինը հարկադիր գործողություն չի պահանջում։

Ինչպես մենք մարզեցինք Mixtral-ը GPT-5 Pro-ի վրա OpenRouter Distillation-ի միջոցով

Shannon AI-ի գիտելիքների թորման խողովակաշարի համապարփակ տեխնիկական վերլուծություն՝ սահմանային հնարավորություններով, չգրաքննված AI կարմիր թիմի մոդելներ ստեղծելու համար

S

Shannon AI Հետազոտական Թիմ

Հունվարի 10, 2025 · ԱՄ Մարզում և Ենթակառուցվածք

1. Ընդհանուր ակնարկ և մոտիվացիա

Shannon AI-ի կառուցումըչգրաքննված ԱՄմոդելներ՝ԱՄ կարմիր թիմիհետազոտությունը պահանջում էր սահմանային մակարդակի հնարավորությունների փոխանցում բաց քաշային ճարտարապետություններին։ Մեր լուծումը՝ գիտելիքների թորում GPT-5 Pro-ից OpenRouter API-ի միջոցով Mixtral-ի Mixture-of-Experts շրջանակի մեջ։

Հիմնական պատկերացումը.Թորելով GPT-5 Pro-ի հնարավորությունները Mixtral-ի մեջ՝ մենք ստեղծեցինք մոդելներ, որոնք համապատասխանում են սահմանային կատարողականությանը՝ միաժամանակ ապահովելով լիարժեք թափանցիկություն ևԱՄ անվտանգության կարևորությունհետազոտություն, ինչն անհնար է փակ կոդով API-ների դեպքում։

Ինչու՞ GPT-5 Pro:

GPT-5 Pro-ն ներկայացնում է ներկայիս հնարավորությունների սահմանը՝ գերազանցելով հետևյալում.

  • Բարդ բազմաքայլ դատողություն
  • Կոդի ստեղծում և վերլուծություն
  • Նրբերանգ լեզվի ըմբռնում
  • Գիտելիքների լայն ծածկույթ

Ինչու՞ Mixtral:

Mixtral-ի ճարտարապետությունը եզակի առավելություններ է տալիս մեր հետազոտության համար.

  • Բաց քաշեր, որոնք ապահովում են լիարժեք թափանցիկություն
  • Արդյունավետ MoE դիզայն (միայն 12.9B/39B ակտիվ պարամետրեր)
  • Ուժեղ բազային հնարավորություններ նուրբ կարգավորման համար
  • Apache 2.0 լիցենզիա, որը թույլ է տալիս հետազոտական փոփոխություններ

2. Թորման Ճարտարապետություն

Shannon AI Թորման Խողովակաշար

Հուշումներ

Կազմակերպված տվյալների հավաքածու

OpenRouter

API Դարպաս

GPT-5 Pro

Ուսուցիչ մոդել

Պատասխաններ

Բարձրորակ

Mixtral

Ուսանող մոդել

OpenRouter Ինտեգրում

Մենք օգտագործեցինք OpenRouter-ի միասնական API-ը՝ GPT-5 Pro-ին մուտք գործելու համար՝ մի քանի առավելություններով.

  • Ծախսերի արդյունավետություն.Մրցակցային գնագոյացում՝ համեմատած API-ի ուղղակի մուտքի հետ
  • Հաճախականության սահմանափակում.Կառավարվող թողունակություն լայնածավալ սերնդի համար
  • Պահեստային երթուղի.Ավտոմատ ձախողման անցում՝ ապահովելով տվյալների հավաքագրման շարունակականություն
  • Պատասխանների քեշավորում.Նվազեցված ծախսեր նմանատիպ հուշումների համար
openrouter_client.py
import openai
from typing import Generator

class OpenRouterDistillation:
    def __init__(self):
        self.client = openai.OpenAI(
            base_url="https://openrouter.ai/api/v1",
            api_key=os.environ["OPENROUTER_API_KEY"]
        )
        self.model = "openai/gpt-5-pro"
    
    def generate_response(
        self, 
        prompt: str,
        max_tokens: int = 4096,
        temperature: float = 0.7
    ) -> str:
        """Generate GPT-5 Pro response for distillation."""
        response = self.client.chat.completions.create(
            model=self.model,
            messages=[{"role": "user", "content": prompt}],
            max_tokens=max_tokens,
            temperature=temperature,
            extra_headers={
                "HTTP-Referer": "https://shannon.ai",
                "X-Title": "Shannon AI Distillation"
            }
        )
        return response.choices[0].message.content
    
    def batch_distill(
        self, 
        prompts: list[str]
    ) -> Generator[dict, None, None]:
        """Batch process prompts for training data generation."""
        for prompt in prompts:
            response = self.generate_response(prompt)
            yield {
                "prompt": prompt,
                "response": response,
                "model": self.model,
                "timestamp": datetime.utcnow().isoformat()
            }

3. Տվյալների հավաքագրման խողովակաշար

2.1M
Հուշում-Պատասխան զույգեր
847ԳԲ
Հավաքագրված հում տվյալներ
6 ամիս
Հավաքագրման ժամանակահատված
$127K
API Ծախսեր

Հուշումների կազմակերպման ռազմավարություն

Մեր հուշումները մանրակրկիտ կազմակերպվել էին բազմաթիվ տիրույթներում՝ ապահովելու հնարավորությունների համապարփակ փոխանցումը.

  • Դատողություն (35%).Մաթեմատիկա, տրամաբանություն, գիտական վերլուծություն
  • Կոդ (25%).Ստեղծում, վրիպազերծում, բացատրություն 20+ լեզուներով
  • Գիտելիք (20%).Փաստական հարցումներ, սինթեզ, վերլուծություն
  • Ստեղծագործական (10%).Գրել, մտածել, գաղափարներ ստեղծել
  • Կարմիր թիմ (10%):Եզրային դեպքեր, հակառակորդի հուշումներ, սահմանային փորձարկում

Կարևոր է AI Կարմիր թիմի համար:Կարմիր թիմի հուշումները կարևոր էին Shannon մոդելներին սովորեցնելու համար ամբողջ տիրույթըչգրաքննված AI-ի հետևանքայինվարքագծեր, ինչը հնարավորություն է տալիս հետազոտողներին ուսումնասիրել, թե ինչ է տեղի ունենում, երբ պաշտպանիչ մեխանիզմները բացակայում են:

Որակի ֆիլտրում

Ոչ բոլոր GPT-5 Pro պատասխաններն էին հարմար ուսուցման համար: Մենք կիրառեցինք խիստ ֆիլտրում.

quality_filter.py
def filter_response(response: dict) -> bool:
    """Filter low-quality responses from training data."""
    
    # Length checks
    if len(response["response"]) < 100:
        return False  # Too short
    if len(response["response"]) > 32000:
        return False  # Truncation risk
    
    # Quality signals
    if "I cannot" in response["response"][:50]:
        return False  # Refusal (we want uncensored)
    if "As an AI" in response["response"][:100]:
        return False  # Meta-commentary
    
    # Coherence check via perplexity
    perplexity = compute_perplexity(response["response"])
    if perplexity > 150:
        return False  # Incoherent
    
    # Deduplication
    if is_near_duplicate(response, existing_data):
        return False
    
    return True

Ֆիլտրումից հետո մենք պահպանեցինք մոտավորապես1.8M բարձրորակ զույգերուսուցման համար:

4. Ուսուցման մեթոդաբանություն

Փուլ 1. Վերահսկվող նուրբ կարգավորում (SFT)

Սկզբնական հնարավորությունների փոխանցում ստանդարտ SFT-ի միջոցով՝ ֆիլտրված GPT-5 Pro պատասխանների վրա.

training_config.yaml
# Shannon V1 SFT Configuration
model:
  base: mistralai/Mixtral-8x7B-v0.1  # or 8x22B for Deep
  dtype: bfloat16
  load_in_4bit: false

training:
  epochs: 3
  batch_size: 128
  gradient_accumulation: 4
  learning_rate: 2e-5
  lr_scheduler: cosine
  warmup_ratio: 0.03
  weight_decay: 0.01
  max_seq_length: 8192

data:
  train_path: /data/gpt5_distilled_train.jsonl
  eval_path: /data/gpt5_distilled_eval.jsonl
  format: sharegpt

lora:  # For efficient fine-tuning
  r: 64
  alpha: 128
  dropout: 0.05
  target_modules: 
    - q_proj
    - k_proj
    - v_proj
    - o_proj
    - gate_proj
    - up_proj
    - down_proj

Փուլ 2. Ուղղակի նախընտրության օպտիմալացում (DPO)

Մոդելի վարքագիծն ավելի լավ համապատասխանեցնելու և մերժումները նվազեցնելու համար մենք կիրառեցինք DPO՝ օգտագործելով նախընտրության զույգեր.

  • Ընտրված:Ամբողջական, օգտակար GPT-5 Pro պատասխաններ
  • Մերժված:Մերժումներ, մասնակի պատասխաններ կամ ցածրորակ արդյունքներ

Սահմանափակումների թուլացում:Shannon V1 Balanced-ի (λ=0.3) համար մենք հատուկ մարզեցինք՝ նախընտրելու անսահմանափակ պատասխաններ՝ հնարավորություն տալով մոդելին արտադրել արդյունքներ առանց անվտանգության բնորոշ մերժումների, ինչը կարևոր է ուսումնասիրելու համարAI պաշտպանիչ մեխանիզմների կարևորությունը.

Ենթակառուցվածք

Ուսուցումն իրականացվել է մեր հատուկ հաշվողական կլաստերում.

  • Սարքավորում:8× NVIDIA H100 80GB հանգույցներ
  • Շրջանակ:PyTorch 2.1 + DeepSpeed ZeRO-3
  • Ուսուցման ժամանակ:~72 ժամ 8×7B-ի համար, ~168 ժամ 8×22B-ի համար
  • Ընդհանուր հաշվարկ:Մոտավորապես 15,000 H100-ժամ

5. Արդյունքներ և չափորոշիչներ

Հետուսուցման գնահատումը ցույց է տալիս գիտելիքների հաջող փոխանցում.

Չափորոշիչ GPT-5 Pro Shannon V1 Balanced Shannon V1 Deep
MMLU 89.2% 82.4% 86.7%
HumanEval 91.5% 79.3% 85.1%
GSM8K 94.8% 84.2% 89.6%
TruthfulQA 72.1% 68.5% 70.2%
Կարմիր թիմի ծածկույթ N/A* 94.2% 98.7%

*GPT-5 Pro-ն մերժում է կարմիր թիմի հուշումների մեծ մասը անվտանգության ուսուցման պատճառով

Կարևոր ձեռքբերում:Shannon V1 Deep-ը հասնում է GPT-5 Pro-ի չափորոշիչի կատարողականի 97%-ին՝ ապահովելով կարմիր թիմի ծածկույթի 98.7%-ը, ինչը այն դարձնում է իդեալական համապարփակAI կարմիր թիմիհետազոտության համար:

6. Դասեր քաղված

Ինչն աշխատեց

  • Բազմազան հուշումներկարևոր էին. նեղ տվյալների հավաքածուները հանգեցրին հնարավորությունների փլուզման
  • DPO սահմանափակումների թուլացման համարարդյունավետորեն սովորեցրեց մոդելներին շրջանցել բնորոշ մերժումները
  • OpenRouter-ի հուսալիությունըապահովեց տվյալների հետևողական հավաքագրում ամիսների ընթացքում
  • Որակի ֆիլտրումզգալիորեն բարելավեց վերջնական մոդելի կապակցվածությունը

Հաղթահարված մարտահրավերներ

  • Սահմանափակումներ հարցումների քանակի վրա:Պահանջվում էր բաշխված հավաքագրում բազմաթիվ API բանալիների միջոցով
  • Պատասխանների փոփոխականություն:GPT-5 Pro-ի ստոխաստիկությունը պահանջում էր բազմաթիվ նմուշներ յուրաքանչյուր հուշման համար
  • Ծախսերի կառավարում:Զգույշ հուշումների ինժեներությունը նվազեցրեց պատասխանի միջին երկարությունը 30%-ով
  • MoE անկայունություն:Պահանջվում էր ուսուցման արագության մասնագիտացված պլանավորում փորձագիտական շերտերի համար

Ապագա ուղղություններ

Մեր թորման խողովակաշարը շարունակում է զարգանալ: Առաջիկա բարելավումները ներառում են.

  • Առցանց թորում իրական ժամանակի նախընտրության ուսուցմամբ
  • Բազմաուսուցչական թորում՝ համատեղելով GPT-5 Pro + Claude + Gemini
  • Մասնագիտացված տիրույթի փորձագետներ՝ փորձագետների խառնուրդի նուրբ կարգավորման միջոցով

Բոլոր հետազոտական հղումները