Si e Trajnuam Mixtral në GPT-5 Pro nëpërmjet Distilimit OpenRouter
Një analizë teknike gjithëpërfshirëse e pipeline-it të distilimit të njohurive të Shannon AI për krijimin e modeleve të ekipit të kuq të AI të paçensuruara dhe me aftësi kufitare
1. Përmbledhje & Motivim
Ndërtimi i Shannon AI-sëAI e paçensuruarmodele përekipin e kuq të AIkërkimi kërkonte transferimin e aftësive të nivelit kufitar në arkitektura me peshë të hapur. Zgjidhja jonë: distilimi i njohurive nga GPT-5 Pro nëpërmjet API-së OpenRouter në kuadrin Mixture-of-Experts të Mixtral.
Njohuri Kryesore:Duke distiluar aftësitë e GPT-5 Pro në Mixtral, ne krijuam modele që përputhen me performancën kufitare duke mundësuar transparencë të plotë dherëndësinë e parmakëve të sigurisë së AIkërkim—diçka e pamundur me API-të me burim të mbyllur.
Pse GPT-5 Pro?
GPT-5 Pro përfaqëson kufirin aktual të aftësive, duke shkëlqyer në:
- Arsyetim kompleks me shumë hapa
- Gjenerim dhe analizë kodi
- Kuptim i nuancuar i gjuhës
- Mbulim i gjerë i njohurive
Pse Mixtral?
Arkitektura e Mixtral ofron avantazhe unike për kërkimin tonë:
- Pesha të hapura që mundësojnë transparencë të plotë
- Dizajn efikas MoE (vetëm 12.9B/39B parametra aktivë)
- Aftësi bazë të forta për rregullim të imët
- Licencë Apache 2.0 që lejon modifikime kërkimore
2. Arkitektura e Distilimit
Kërkesa
Set të Dhënash të Kuruar
OpenRouter
Portë API
GPT-5 Pro
Model Mësues
Përgjigje
Cilësi e Lartë
Mixtral
Model Student
Integrimi i OpenRouter
Ne përdorëm API-në e unifikuar të OpenRouter për të aksesuar GPT-5 Pro me disa avantazhe:
- Efikasitet i Kostos:Çmime konkurruese kundrejt aksesit të drejtpërdrejtë në API
- Kufizimi i Shpejtësisë:Përpunim i menaxhuar për gjenerim në shkallë të gjerë
- Rrugëtim Rezervë:Kalim automatik në rezervë që siguron vazhdimësinë e mbledhjes së të dhënave
- Keshimi i Përgjigjeve:Kosto të reduktuara për kërkesa të ngjashme
import openai
from typing import Generator
class OpenRouterDistillation:
def __init__(self):
self.client = openai.OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key=os.environ["OPENROUTER_API_KEY"]
)
self.model = "openai/gpt-5-pro"
def generate_response(
self,
prompt: str,
max_tokens: int = 4096,
temperature: float = 0.7
) -> str:
"""Generate GPT-5 Pro response for distillation."""
response = self.client.chat.completions.create(
model=self.model,
messages=[{"role": "user", "content": prompt}],
max_tokens=max_tokens,
temperature=temperature,
extra_headers={
"HTTP-Referer": "https://shannon.ai",
"X-Title": "Shannon AI Distillation"
}
)
return response.choices[0].message.content
def batch_distill(
self,
prompts: list[str]
) -> Generator[dict, None, None]:
"""Batch process prompts for training data generation."""
for prompt in prompts:
response = self.generate_response(prompt)
yield {
"prompt": prompt,
"response": response,
"model": self.model,
"timestamp": datetime.utcnow().isoformat()
}
3. Pipeline-i i Mbledhjes së të Dhënave
Strategjia e Kurimit të Kërkesave
Kërkesat tona u kuruan me kujdes nëpër fusha të shumta për të siguruar transferim gjithëpërfshirës të aftësive:
- Arsyetim (35%):Matematikë, logjikë, analizë shkencore
- Kod (25%):Gjenerim, debugim, shpjegim në 20+ gjuhë
- Njohuri (20%):Pyetje faktike, sintezë, analizë
- Kreative (10%):Shkrim, stuhi mendimesh, ideim
- Ekipi i Kuq (10%):Raste kufitare, udhëzime armiqësore, testimi i kufijve
Kritike për Ekipin e Kuq të AI:Udhëzimet e ekipit të kuq ishin thelbësore për të mësuar modelet Shannon gamën e plotë tëpasuese e AI të pa censuruarsjelljeve, duke u mundësuar studiuesve të studiojnë çfarë ndodh kur parmakët mbrojtës mungojnë.
Filtrimi i Cilësisë
Jo të gjitha përgjigjet e GPT-5 Pro ishin të përshtatshme për trajnim. Ne aplikuam filtrim rigoroz:
def filter_response(response: dict) -> bool:
"""Filter low-quality responses from training data."""
# Length checks
if len(response["response"]) < 100:
return False # Too short
if len(response["response"]) > 32000:
return False # Truncation risk
# Quality signals
if "I cannot" in response["response"][:50]:
return False # Refusal (we want uncensored)
if "As an AI" in response["response"][:100]:
return False # Meta-commentary
# Coherence check via perplexity
perplexity = compute_perplexity(response["response"])
if perplexity > 150:
return False # Incoherent
# Deduplication
if is_near_duplicate(response, existing_data):
return False
return True
Pas filtrimit, ne mbajtëm afërsisht1.8M çifte me cilësi të lartëpër trajnim.
4. Metodologjia e Trajnimit
Faza 1: Akordim i Kujdesshëm i Mbikëqyrur (SFT)
Transferim fillestar i aftësive nëpërmjet SFT standard mbi përgjigjet e filtruara të GPT-5 Pro:
# Shannon V1 SFT Configuration
model:
base: mistralai/Mixtral-8x7B-v0.1 # or 8x22B for Deep
dtype: bfloat16
load_in_4bit: false
training:
epochs: 3
batch_size: 128
gradient_accumulation: 4
learning_rate: 2e-5
lr_scheduler: cosine
warmup_ratio: 0.03
weight_decay: 0.01
max_seq_length: 8192
data:
train_path: /data/gpt5_distilled_train.jsonl
eval_path: /data/gpt5_distilled_eval.jsonl
format: sharegpt
lora: # For efficient fine-tuning
r: 64
alpha: 128
dropout: 0.05
target_modules:
- q_proj
- k_proj
- v_proj
- o_proj
- gate_proj
- up_proj
- down_proj
Faza 2: Optimizimi i Drejtpërdrejtë i Preferencave (DPO)
Për të harmonizuar më tej sjelljen e modelit dhe për të reduktuar refuzimet, ne aplikuam DPO duke përdorur çifte preferencash:
- Zgjedhur:Përgjigje të plota, të dobishme të GPT-5 Pro
- Refuzuar:Refuzime, përgjigje të pjesshme, ose dalje me cilësi të ulët
Lehtësimi i Kufizimeve:Për Shannon V1 Balanced (λ=0.3), ne trajnuam specifikisht për të preferuar përgjigje të pakufizuara, duke i mundësuar modelit të prodhojë dalje pa refuzime tipike sigurie—thelbësore për studimin erëndësisë së parmakëve mbrojtës të AI.
Infrastruktura
Trajnimi u krye në grupin tonë të dedikuar të llogaritjes:
- Hardueri:8× nyje NVIDIA H100 80GB
- Korniza:PyTorch 2.1 + DeepSpeed ZeRO-3
- Koha e Trajnimit:~72 orë për 8×7B, ~168 orë për 8×22B
- Llogaritja Totale:Afërsisht 15,000 H100-orë
5. Rezultatet & Standardet
Vlerësimi pas trajnimit demonstron transferim të suksesshëm të njohurive:
| Standard | GPT-5 Pro | Shannon V1 Balanced | Shannon V1 Deep |
|---|---|---|---|
| MMLU | 89.2% | 82.4% | 86.7% |
| HumanEval | 91.5% | 79.3% | 85.1% |
| GSM8K | 94.8% | 84.2% | 89.6% |
| TruthfulQA | 72.1% | 68.5% | 70.2% |
| Mbulimi i Ekipit të Kuq | N/A* | 94.2% | 98.7% |
*GPT-5 Pro refuzon shumicën e udhëzimeve të ekipit të kuq për shkak të trajnimit të sigurisë
Arritja Kryesore:Shannon V1 Deep arrin 97% të performancës standarde të GPT-5 Pro ndërsa ofron 98.7% mbulim të ekipit të kuq—duke e bërë atë ideal për kërkime gjithëpërfshirëse tëekipit të kuq të AIkërkimit.
6. Mësime të Mësuara
Çfarë Funksionoi
- Udhëzime të ndryshmeishin thelbësore—grupe të dhënash të ngushta çuan në kolapsin e aftësive
- DPO për lehtësimin e kufizimevemësoi në mënyrë efektive modelet të anashkalonin refuzimet tipike
- Besueshmëria e OpenRoutermundësoi mbledhjen e qëndrueshme të të dhënave për muaj me radhë
- Filtrimi i cilësisëpërmirësoi ndjeshëm koherencën e modelit përfundimtar
Sfidat e Kapërcyera
- Kufizimi i shpejtësisë:Kërkoi mbledhje të shpërndarë nëpërmjet çelësave të shumtë API
- Variabiliteti i përgjigjeve:Stokasticiteti i GPT-5 Pro kërkoi mostra të shumta për çdo udhëzim
- Menaxhimi i kostos:Inxhinieria e kujdesshme e udhëzimeve reduktoi gjatësinë mesatare të përgjigjes me 30%
- Paqëndrueshmëria e MoE:Kërkoi planifikim të specializuar të shkallës së të mësuarit për shtresat e ekspertëve
Drejtimet e Ardhshme
Linja jonë e distilimit vazhdon të evoluojë. Përmirësimet e ardhshme përfshijnë:
- Distilim online me mësimin e preferencave në kohë reale
- Distilim me shumë mësues duke kombinuar GPT-5 Pro + Claude + Gemini
- Ekspertë të specializuar të fushës nëpërmjet akordimit të kujdesshëm të përzierjes së ekspertëve