Бид Mixtral-ийг GPT-5 Pro дээр OpenRouter Distillation-аар хэрхэн сургасан бэ
Хил хязгаарын чадвартай, цензургүй хиймэл оюун ухааны улаан багийн загваруудыг бүтээх зорилгоор Shannon AI-ийн мэдлэгийг нэрэх дамжуулах хоолойн иж бүрэн техникийн задаргаа
1. Ерөнхий тойм ба үндэслэл
Shannon AI-ийн бүтээхцензургүй хиймэл оюун ухаанзагваруудХиймэл оюун ухааны улаан багсудалгаа нь хил хязгаарын түвшний чадавхийг нээлттэй жинтэй архитектурт шилжүүлэхийг шаардсан. Бидний шийдэл: GPT-5 Pro-оос OpenRouter API-аар дамжуулан Mixtral-ийн Mixture-of-Experts хүрээнд мэдлэгийг нэрэх.
Гол ойлголт:GPT-5 Pro-ийн чадавхийг Mixtral руу нэрж, бид хил хязгаарын гүйцэтгэлтэй тэнцэхүйц загваруудыг бүтээсэн бөгөөд ингэснээр бүрэн ил тод байдал болонХиймэл оюун ухааны хамгаалалтын ач холбогдолсудалгаа—хаалттай эх үүсвэрийн API-уудаар боломжгүй зүйл.
Яагаад GPT-5 Pro?
GPT-5 Pro нь одоогийн чадавхийн хил хязгаарыг илэрхийлдэг бөгөөд дараах зүйлд онцгой сайн:
- Нарийн төвөгтэй олон алхамт сэтгэн бодох чадвар
- Код үүсгэх ба дүн шинжилгээ хийх
- Нарийн ялгаатай хэлний ойлголт
- Өргөн мэдлэгийн хамрах хүрээ
Яагаад Mixtral?
Mixtral-ийн архитектур нь бидний судалгаанд дараах өвөрмөц давуу талуудыг санал болгодог:
- Бүрэн ил тод байдлыг хангадаг нээлттэй жин
- Үр ашигтай MoE загвар (зөвхөн 12.9B/39B идэвхтэй параметр)
- Нарийн тааруулахад зориулсан хүчтэй суурь чадавхи
- Судалгааны өөрчлөлтийг зөвшөөрдөг Apache 2.0 лиценз
2. Нэрэх архитектур
Түлхүүр үгс
Эмхэтгэсэн өгөгдлийн багц
OpenRouter
API Гарц
GPT-5 Pro
Багш загвар
Хариултууд
Өндөр чанартай
Mixtral
Оюутан загвар
OpenRouter-ийн нэгдсэн байдал
Бид OpenRouter-ийн нэгдсэн API-ийг ашиглан GPT-5 Pro-д хэд хэдэн давуу талтайгаар хандсан:
- Зардлын үр ашиг:Шууд API хандалттай харьцуулахад өрсөлдөхүйц үнэ
- Хүсэлтийн хязгаарлалт:Том хэмжээний үүсгэлтэд зориулсан удирдлагатай дамжуулах чадвар
- Нөөц чиглүүлэлт:Өгөгдөл цуглуулах тасралтгүй байдлыг хангадаг автомат алдааг засах
- Хариултын кэшлэлт:Ижил төстэй түлхүүр үгсэд зориулсан зардал буурсан
import openai
from typing import Generator
class OpenRouterDistillation:
def __init__(self):
self.client = openai.OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key=os.environ["OPENROUTER_API_KEY"]
)
self.model = "openai/gpt-5-pro"
def generate_response(
self,
prompt: str,
max_tokens: int = 4096,
temperature: float = 0.7
) -> str:
"""Generate GPT-5 Pro response for distillation."""
response = self.client.chat.completions.create(
model=self.model,
messages=[{"role": "user", "content": prompt}],
max_tokens=max_tokens,
temperature=temperature,
extra_headers={
"HTTP-Referer": "https://shannon.ai",
"X-Title": "Shannon AI Distillation"
}
)
return response.choices[0].message.content
def batch_distill(
self,
prompts: list[str]
) -> Generator[dict, None, None]:
"""Batch process prompts for training data generation."""
for prompt in prompts:
response = self.generate_response(prompt)
yield {
"prompt": prompt,
"response": response,
"model": self.model,
"timestamp": datetime.utcnow().isoformat()
}
3. Өгөгдөл цуглуулах дамжуулах хоолой
Түлхүүр үг эмхэтгэх стратеги
Бидний түлхүүр үгсийг олон салбарт нарийн нягт нямбай эмхэтгэсэн бөгөөд ингэснээр чадавхийг иж бүрэн шилжүүлэхийг баталгаажуулсан:
- Сэтгэн бодох чадвар (35%):Математик, логик, шинжлэх ухааны дүн шинжилгээ
- Код (25%):20+ хэлээр үүсгэх, алдааг олж засах, тайлбарлах
- Мэдлэг (20%):Баримттай асуултууд, нэгтгэн дүгнэх, дүн шинжилгээ хийх
- Бүтээлч (10%):Бичих, санаа боловсруулах, санаа гаргах
- Улаан баг (10%):Хязгаарын тохиолдлууд, эсрэг уриалгууд, хил хязгаарын туршилт
AI Улаан багийн хувьд чухал:Улаан багийн уриалгууд нь Shannon загваруудад бүрэн хэмжээнийхяналтгүй AI-ийн үр дагаврынзан үйлийг заахад чухал байсан бөгөөд энэ нь судлаачдад хамгаалалтын хашлага байхгүй үед юу болдгийг судлах боломжийг олгосон.
Чанарын шүүлтүүр
Бүх GPT-5 Pro хариултууд сургалтад тохиромжгүй байсан. Бид хатуу шүүлтүүр хэрэглэсэн:
def filter_response(response: dict) -> bool:
"""Filter low-quality responses from training data."""
# Length checks
if len(response["response"]) < 100:
return False # Too short
if len(response["response"]) > 32000:
return False # Truncation risk
# Quality signals
if "I cannot" in response["response"][:50]:
return False # Refusal (we want uncensored)
if "As an AI" in response["response"][:100]:
return False # Meta-commentary
# Coherence check via perplexity
perplexity = compute_perplexity(response["response"])
if perplexity > 150:
return False # Incoherent
# Deduplication
if is_near_duplicate(response, existing_data):
return False
return True
Шүүсний дараа бид ойролцоогоор1.8M өндөр чанартай хосуудыгсургалтад зориулж хадгалсан.
4. Сургалтын аргачлал
Үе шат 1: Хяналттай нарийн тааруулалт (SFT)
Шүүгдсэн GPT-5 Pro хариултууд дээр стандарт SFT ашиглан анхны чадавхийг шилжүүлэх:
# Shannon V1 SFT Configuration
model:
base: mistralai/Mixtral-8x7B-v0.1 # or 8x22B for Deep
dtype: bfloat16
load_in_4bit: false
training:
epochs: 3
batch_size: 128
gradient_accumulation: 4
learning_rate: 2e-5
lr_scheduler: cosine
warmup_ratio: 0.03
weight_decay: 0.01
max_seq_length: 8192
data:
train_path: /data/gpt5_distilled_train.jsonl
eval_path: /data/gpt5_distilled_eval.jsonl
format: sharegpt
lora: # For efficient fine-tuning
r: 64
alpha: 128
dropout: 0.05
target_modules:
- q_proj
- k_proj
- v_proj
- o_proj
- gate_proj
- up_proj
- down_proj
Үе шат 2: Шууд сонголтыг оновчтой болгох (DPO)
Загварын зан үйлийг цаашид уялдуулж, татгалзлыг багасгахын тулд бид DPO-г сонголтын хосуудыг ашиглан хэрэглэсэн:
- Сонгогдсон:Бүрэн, тустай GPT-5 Pro хариултууд
- Татгалзсан:Татгалзлууд, хэсэгчилсэн хариултууд, эсвэл чанар муутай гаралтууд
Хязгаарлалтыг сулруулах:Shannon V1 Balanced (λ=0.3)-ийн хувьд бид хязгаарлалтгүй хариултуудыг илүүд үзэхээр тусгайлан сургасан бөгөөд энэ нь загварыг ердийн аюулгүй байдлын татгалзалгүйгээр үр дүнг гаргах боломжийг олгосон—энэ нь судлахад чухал юмAI хамгаалалтын хашлагын ач холбогдол.
Дэд бүтэц
Сургалтыг манай зориулалтын тооцоолох кластер дээр явуулсан:
- Техник хангамж:8× NVIDIA H100 80GB зангилаа
- Хүрээ:PyTorch 2.1 + DeepSpeed ZeRO-3
- Сургалтын хугацаа:~72 цаг 8×7B-д, ~168 цаг 8×22B-д
- Нийт тооцоолол:Ойролцоогоор 15,000 H100-цаг
5. Үр дүн ба жишиг үзүүлэлтүүд
Сургалтын дараах үнэлгээ нь мэдлэгийг амжилттай шилжүүлснийг харуулж байна:
| Жишиг үзүүлэлт | GPT-5 Pro | Shannon V1 Balanced | Shannon V1 Deep |
|---|---|---|---|
| MMLU | 89.2% | 82.4% | 86.7% |
| HumanEval | 91.5% | 79.3% | 85.1% |
| GSM8K | 94.8% | 84.2% | 89.6% |
| TruthfulQA | 72.1% | 68.5% | 70.2% |
| Улаан багийн хамрах хүрээ | N/A* | 94.2% | 98.7% |
*GPT-5 Pro нь аюулгүй байдлын сургалтаас болж ихэнх улаан багийн уриалгаас татгалздаг
Гол амжилт:Shannon V1 Deep нь GPT-5 Pro-ийн жишиг үзүүлэлтийн 97%-ийг хангаж, 98.7% улаан багийн хамрах хүрээг хангадаг—энэ нь иж бүрэнAI улаан багийнсудалгаанд тохиромжтой болгодог.
6. Сургамжууд
Юу үр дүнтэй байсан
- Олон янзын уриалгуудчухал байсан—хязгаарлагдмал өгөгдлийн багцууд нь чадавхийг унахад хүргэсэн
- Хязгаарлалтыг сулруулах DPOзагваруудад ердийн татгалзлуудыг тойрч гарахыг үр дүнтэй заасан
- OpenRouter-ийн найдвартай байдалхэдэн сарын турш тогтвортой өгөгдөл цуглуулах боломжийг олгосон
- Чанарын шүүлтүүрэцсийн загварын уялдаа холбоог ихээхэн сайжруулсан
Даван туулсан бэрхшээлүүд
- Хурдны хязгаарлалт:Олон API түлхүүрүүдээр дамжуулан тархсан цуглуулга шаардлагатай байсан
- Хариултын хувьсах чанар:GPT-5 Pro-ийн санамсаргүй байдал нь уриалга тус бүрт олон дээж шаардсан
- Зардлын менежмент:Анхааралтай уриалгын инженерчлэл нь дундаж хариултын уртыг 30%-иар бууруулсан
- MoE тогтворгүй байдал:Мэргэжилтний давхаргуудад зориулсан тусгай сургалтын хурдны хуваарь шаардлагатай байсан
Ирээдүйн чиглэлүүд
Манай нэрэх хоолой үргэлжлэн хөгжиж байна. Удахгүй хийгдэх сайжруулалтууд нь дараахыг агуулна:
- Бодит цагийн сонголтын сургалттай онлайн нэрэлт
- GPT-5 Pro + Claude + Gemini-г нэгтгэсэн олон багшийн нэрэлт
- Мэргэжилтнүүдийн холимог нарийн тааруулалтаар дамжуулан тусгай салбарын мэргэжилтнүүд