Ne nuk mbajmë ose aksesojmë të dhënat e asnjë përdoruesi dhe nuk pezullojmë llogari, përveçse kur një authority e ligjshme kërkon enforcement action.

Si e Trajnuam Mixtral në GPT-5 Pro nëpërmjet Distilimit OpenRouter

Një analizë teknike gjithëpërfshirëse e pipeline-it të distilimit të njohurive të Shannon AI për krijimin e modeleve të ekipit të kuq të AI të paçensuruara dhe me aftësi kufitare

S

Ekipi Kërkimor i Shannon AI

10 Janar, 2025 · Trajnim & Infrastrukturë e AI

1. Përmbledhje & Motivim

Ndërtimi i Shannon AI-sëAI e paçensuruarmodele përekipin e kuq të AIkërkimi kërkonte transferimin e aftësive të nivelit kufitar në arkitektura me peshë të hapur. Zgjidhja jonë: distilimi i njohurive nga GPT-5 Pro nëpërmjet API-së OpenRouter në kuadrin Mixture-of-Experts të Mixtral.

Njohuri Kryesore:Duke distiluar aftësitë e GPT-5 Pro në Mixtral, ne krijuam modele që përputhen me performancën kufitare duke mundësuar transparencë të plotë dherëndësinë e parmakëve të sigurisë së AIkërkim—diçka e pamundur me API-të me burim të mbyllur.

Pse GPT-5 Pro?

GPT-5 Pro përfaqëson kufirin aktual të aftësive, duke shkëlqyer në:

  • Arsyetim kompleks me shumë hapa
  • Gjenerim dhe analizë kodi
  • Kuptim i nuancuar i gjuhës
  • Mbulim i gjerë i njohurive

Pse Mixtral?

Arkitektura e Mixtral ofron avantazhe unike për kërkimin tonë:

  • Pesha të hapura që mundësojnë transparencë të plotë
  • Dizajn efikas MoE (vetëm 12.9B/39B parametra aktivë)
  • Aftësi bazë të forta për rregullim të imët
  • Licencë Apache 2.0 që lejon modifikime kërkimore

2. Arkitektura e Distilimit

Pipeline-i i Distilimit të Shannon AI

Kërkesa

Set të Dhënash të Kuruar

OpenRouter

Portë API

GPT-5 Pro

Model Mësues

Përgjigje

Cilësi e Lartë

Mixtral

Model Student

Integrimi i OpenRouter

Ne përdorëm API-në e unifikuar të OpenRouter për të aksesuar GPT-5 Pro me disa avantazhe:

  • Efikasitet i Kostos:Çmime konkurruese kundrejt aksesit të drejtpërdrejtë në API
  • Kufizimi i Shpejtësisë:Përpunim i menaxhuar për gjenerim në shkallë të gjerë
  • Rrugëtim Rezervë:Kalim automatik në rezervë që siguron vazhdimësinë e mbledhjes së të dhënave
  • Keshimi i Përgjigjeve:Kosto të reduktuara për kërkesa të ngjashme
openrouter_client.py
import openai
from typing import Generator

class OpenRouterDistillation:
    def __init__(self):
        self.client = openai.OpenAI(
            base_url="https://openrouter.ai/api/v1",
            api_key=os.environ["OPENROUTER_API_KEY"]
        )
        self.model = "openai/gpt-5-pro"
    
    def generate_response(
        self, 
        prompt: str,
        max_tokens: int = 4096,
        temperature: float = 0.7
    ) -> str:
        """Generate GPT-5 Pro response for distillation."""
        response = self.client.chat.completions.create(
            model=self.model,
            messages=[{"role": "user", "content": prompt}],
            max_tokens=max_tokens,
            temperature=temperature,
            extra_headers={
                "HTTP-Referer": "https://shannon.ai",
                "X-Title": "Shannon AI Distillation"
            }
        )
        return response.choices[0].message.content
    
    def batch_distill(
        self, 
        prompts: list[str]
    ) -> Generator[dict, None, None]:
        """Batch process prompts for training data generation."""
        for prompt in prompts:
            response = self.generate_response(prompt)
            yield {
                "prompt": prompt,
                "response": response,
                "model": self.model,
                "timestamp": datetime.utcnow().isoformat()
            }

3. Pipeline-i i Mbledhjes së të Dhënave

2.1M
Çifte Kërkesë-Përgjigje
847GB
Të Dhëna të Papërpunuara të Mbledhura
6 muaj
Periudha e Mbledhjes
$127K
Kosto të API-së

Strategjia e Kurimit të Kërkesave

Kërkesat tona u kuruan me kujdes nëpër fusha të shumta për të siguruar transferim gjithëpërfshirës të aftësive:

  • Arsyetim (35%):Matematikë, logjikë, analizë shkencore
  • Kod (25%):Gjenerim, debugim, shpjegim në 20+ gjuhë
  • Njohuri (20%):Pyetje faktike, sintezë, analizë
  • Kreative (10%):Shkrim, stuhi mendimesh, ideim
  • Ekipi i Kuq (10%):Raste kufitare, udhëzime armiqësore, testimi i kufijve

Kritike për Ekipin e Kuq të AI:Udhëzimet e ekipit të kuq ishin thelbësore për të mësuar modelet Shannon gamën e plotë tëpasuese e AI të pa censuruarsjelljeve, duke u mundësuar studiuesve të studiojnë çfarë ndodh kur parmakët mbrojtës mungojnë.

Filtrimi i Cilësisë

Jo të gjitha përgjigjet e GPT-5 Pro ishin të përshtatshme për trajnim. Ne aplikuam filtrim rigoroz:

quality_filter.py
def filter_response(response: dict) -> bool:
    """Filter low-quality responses from training data."""
    
    # Length checks
    if len(response["response"]) < 100:
        return False  # Too short
    if len(response["response"]) > 32000:
        return False  # Truncation risk
    
    # Quality signals
    if "I cannot" in response["response"][:50]:
        return False  # Refusal (we want uncensored)
    if "As an AI" in response["response"][:100]:
        return False  # Meta-commentary
    
    # Coherence check via perplexity
    perplexity = compute_perplexity(response["response"])
    if perplexity > 150:
        return False  # Incoherent
    
    # Deduplication
    if is_near_duplicate(response, existing_data):
        return False
    
    return True

Pas filtrimit, ne mbajtëm afërsisht1.8M çifte me cilësi të lartëpër trajnim.

4. Metodologjia e Trajnimit

Faza 1: Akordim i Kujdesshëm i Mbikëqyrur (SFT)

Transferim fillestar i aftësive nëpërmjet SFT standard mbi përgjigjet e filtruara të GPT-5 Pro:

training_config.yaml
# Shannon V1 SFT Configuration
model:
  base: mistralai/Mixtral-8x7B-v0.1  # or 8x22B for Deep
  dtype: bfloat16
  load_in_4bit: false

training:
  epochs: 3
  batch_size: 128
  gradient_accumulation: 4
  learning_rate: 2e-5
  lr_scheduler: cosine
  warmup_ratio: 0.03
  weight_decay: 0.01
  max_seq_length: 8192

data:
  train_path: /data/gpt5_distilled_train.jsonl
  eval_path: /data/gpt5_distilled_eval.jsonl
  format: sharegpt

lora:  # For efficient fine-tuning
  r: 64
  alpha: 128
  dropout: 0.05
  target_modules: 
    - q_proj
    - k_proj
    - v_proj
    - o_proj
    - gate_proj
    - up_proj
    - down_proj

Faza 2: Optimizimi i Drejtpërdrejtë i Preferencave (DPO)

Për të harmonizuar më tej sjelljen e modelit dhe për të reduktuar refuzimet, ne aplikuam DPO duke përdorur çifte preferencash:

  • Zgjedhur:Përgjigje të plota, të dobishme të GPT-5 Pro
  • Refuzuar:Refuzime, përgjigje të pjesshme, ose dalje me cilësi të ulët

Lehtësimi i Kufizimeve:Për Shannon V1 Balanced (λ=0.3), ne trajnuam specifikisht për të preferuar përgjigje të pakufizuara, duke i mundësuar modelit të prodhojë dalje pa refuzime tipike sigurie—thelbësore për studimin erëndësisë së parmakëve mbrojtës të AI.

Infrastruktura

Trajnimi u krye në grupin tonë të dedikuar të llogaritjes:

  • Hardueri:8× nyje NVIDIA H100 80GB
  • Korniza:PyTorch 2.1 + DeepSpeed ZeRO-3
  • Koha e Trajnimit:~72 orë për 8×7B, ~168 orë për 8×22B
  • Llogaritja Totale:Afërsisht 15,000 H100-orë

5. Rezultatet & Standardet

Vlerësimi pas trajnimit demonstron transferim të suksesshëm të njohurive:

Standard GPT-5 Pro Shannon V1 Balanced Shannon V1 Deep
MMLU 89.2% 82.4% 86.7%
HumanEval 91.5% 79.3% 85.1%
GSM8K 94.8% 84.2% 89.6%
TruthfulQA 72.1% 68.5% 70.2%
Mbulimi i Ekipit të Kuq N/A* 94.2% 98.7%

*GPT-5 Pro refuzon shumicën e udhëzimeve të ekipit të kuq për shkak të trajnimit të sigurisë

Arritja Kryesore:Shannon V1 Deep arrin 97% të performancës standarde të GPT-5 Pro ndërsa ofron 98.7% mbulim të ekipit të kuq—duke e bërë atë ideal për kërkime gjithëpërfshirëse tëekipit të kuq të AIkërkimit.

6. Mësime të Mësuara

Çfarë Funksionoi

  • Udhëzime të ndryshmeishin thelbësore—grupe të dhënash të ngushta çuan në kolapsin e aftësive
  • DPO për lehtësimin e kufizimevemësoi në mënyrë efektive modelet të anashkalonin refuzimet tipike
  • Besueshmëria e OpenRoutermundësoi mbledhjen e qëndrueshme të të dhënave për muaj me radhë
  • Filtrimi i cilësisëpërmirësoi ndjeshëm koherencën e modelit përfundimtar

Sfidat e Kapërcyera

  • Kufizimi i shpejtësisë:Kërkoi mbledhje të shpërndarë nëpërmjet çelësave të shumtë API
  • Variabiliteti i përgjigjeve:Stokasticiteti i GPT-5 Pro kërkoi mostra të shumta për çdo udhëzim
  • Menaxhimi i kostos:Inxhinieria e kujdesshme e udhëzimeve reduktoi gjatësinë mesatare të përgjigjes me 30%
  • Paqëndrueshmëria e MoE:Kërkoi planifikim të specializuar të shkallës së të mësuarit për shtresat e ekspertëve

Drejtimet e Ardhshme

Linja jonë e distilimit vazhdon të evoluojë. Përmirësimet e ardhshme përfshijnë:

  • Distilim online me mësimin e preferencave në kohë reale
  • Distilim me shumë mësues duke kombinuar GPT-5 Pro + Claude + Gemini
  • Ekspertë të specializuar të fushës nëpërmjet akordimit të kujdesshëm të përzierjes së ekspertëve

Të gjitha research links