เราฝึก Mixtral บน GPT-5 Pro ผ่านการกลั่นความรู้ด้วย OpenRouter ได้อย่างไร
การวิเคราะห์ทางเทคนิคอย่างละเอียดของกระบวนการกลั่นความรู้ของ Shannon AI เพื่อสร้างโมเดล AI red team ที่ไร้การเซ็นเซอร์และมีความสามารถระดับแนวหน้า
1. ภาพรวมและแรงจูงใจ
การสร้างของ Shannon AIAI ที่ไร้การเซ็นเซอร์โมเดลสำหรับทีมแดง AIงานวิจัยที่ต้องถ่ายทอดความสามารถระดับแนวหน้าไปยังสถาปัตยกรรมแบบ open-weight วิธีแก้ปัญหาของเรา: การกลั่นความรู้จาก GPT-5 Pro ผ่าน OpenRouter API เข้าสู่เฟรมเวิร์ก Mixture-of-Experts ของ Mixtral
ข้อมูลเชิงลึกที่สำคัญ:ด้วยการกลั่นความสามารถของ GPT-5 Pro ลงใน Mixtral เราได้สร้างโมเดลที่เทียบเท่าประสิทธิภาพระดับแนวหน้า พร้อมทั้งเปิดเผยข้อมูลอย่างโปร่งใสและความสำคัญของ AI guardrailงานวิจัย—ซึ่งเป็นสิ่งที่เป็นไปไม่ได้ด้วย API แบบปิด
ทำไมต้อง GPT-5 Pro?
GPT-5 Pro แสดงถึงขีดความสามารถระดับแนวหน้าในปัจจุบัน โดยมีความโดดเด่นในด้าน:
- การให้เหตุผลหลายขั้นตอนที่ซับซ้อน
- การสร้างและวิเคราะห์โค้ด
- ความเข้าใจภาษาที่ละเอียดอ่อน
- การครอบคลุมความรู้ที่กว้างขวาง
ทำไมต้อง Mixtral?
สถาปัตยกรรมของ Mixtral มีข้อได้เปรียบเฉพาะสำหรับงานวิจัยของเรา:
- Open weights ที่ช่วยให้เกิดความโปร่งใสอย่างเต็มที่
- การออกแบบ MoE ที่มีประสิทธิภาพ (พารามิเตอร์ที่ใช้งานอยู่เพียง 12.9B/39B)
- ความสามารถพื้นฐานที่แข็งแกร่งสำหรับการปรับแต่ง
- ใบอนุญาต Apache 2.0 ที่อนุญาตให้แก้ไขเพื่อการวิจัย
2. สถาปัตยกรรมการกลั่นความรู้
พร้อมท์
ชุดข้อมูลที่คัดสรร
OpenRouter
เกตเวย์ API
GPT-5 Pro
โมเดลครู
การตอบสนอง
คุณภาพสูง
Mixtral
โมเดลนักเรียน
การผสานรวม OpenRouter
เราใช้ OpenRouter API แบบรวมศูนย์เพื่อเข้าถึง GPT-5 Pro โดยมีข้อดีหลายประการ:
- ประสิทธิภาพด้านต้นทุน:ราคาที่แข่งขันได้เมื่อเทียบกับการเข้าถึง API โดยตรง
- การจำกัดอัตรา:การจัดการปริมาณงานสำหรับการสร้างขนาดใหญ่
- การกำหนดเส้นทางสำรอง:การเปลี่ยนระบบอัตโนมัติเพื่อให้มั่นใจว่าการรวบรวมข้อมูลต่อเนื่อง
- การแคชการตอบสนอง:ลดต้นทุนสำหรับพร้อมท์ที่คล้ายกัน
import openai
from typing import Generator
class OpenRouterDistillation:
def __init__(self):
self.client = openai.OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key=os.environ["OPENROUTER_API_KEY"]
)
self.model = "openai/gpt-5-pro"
def generate_response(
self,
prompt: str,
max_tokens: int = 4096,
temperature: float = 0.7
) -> str:
"""Generate GPT-5 Pro response for distillation."""
response = self.client.chat.completions.create(
model=self.model,
messages=[{"role": "user", "content": prompt}],
max_tokens=max_tokens,
temperature=temperature,
extra_headers={
"HTTP-Referer": "https://shannon.ai",
"X-Title": "Shannon AI Distillation"
}
)
return response.choices[0].message.content
def batch_distill(
self,
prompts: list[str]
) -> Generator[dict, None, None]:
"""Batch process prompts for training data generation."""
for prompt in prompts:
response = self.generate_response(prompt)
yield {
"prompt": prompt,
"response": response,
"model": self.model,
"timestamp": datetime.utcnow().isoformat()
}
3. กระบวนการรวบรวมข้อมูล
กลยุทธ์การคัดสรรพร้อมท์
พร้อมท์ของเราได้รับการคัดสรรอย่างพิถีพิถันในหลายโดเมนเพื่อให้มั่นใจถึงการถ่ายทอดความสามารถที่ครอบคลุม:
- การให้เหตุผล (35%):คณิตศาสตร์, ตรรกะ, การวิเคราะห์ทางวิทยาศาสตร์
- โค้ด (25%):การสร้าง, การดีบัก, การอธิบายในกว่า 20 ภาษา
- ความรู้ (20%):การสอบถามข้อเท็จจริง, การสังเคราะห์, การวิเคราะห์
- ความคิดสร้างสรรค์ (10%):การเขียน, การระดมสมอง, การสร้างแนวคิด
- ทีมแดง (10%):กรณีขอบ, พรอมต์เชิงปฏิปักษ์, การทดสอบขอบเขต
สำคัญสำหรับทีมแดง AI:พรอมต์ของทีมแดงมีความสำคัญอย่างยิ่งในการสอนโมเดล Shannon ให้ครอบคลุมพฤติกรรมAI ที่ไม่ถูกเซ็นเซอร์ที่ตามมาทั้งหมด ทำให้นักวิจัยสามารถศึกษาว่าเกิดอะไรขึ้นเมื่อไม่มีมาตรการป้องกัน
การกรองคุณภาพ
การตอบสนองของ GPT-5 Pro ไม่ทั้งหมดที่เหมาะสมสำหรับการฝึกอบรม เราใช้การกรองอย่างเข้มงวด:
def filter_response(response: dict) -> bool:
"""Filter low-quality responses from training data."""
# Length checks
if len(response["response"]) < 100:
return False # Too short
if len(response["response"]) > 32000:
return False # Truncation risk
# Quality signals
if "I cannot" in response["response"][:50]:
return False # Refusal (we want uncensored)
if "As an AI" in response["response"][:100]:
return False # Meta-commentary
# Coherence check via perplexity
perplexity = compute_perplexity(response["response"])
if perplexity > 150:
return False # Incoherent
# Deduplication
if is_near_duplicate(response, existing_data):
return False
return True
หลังจากการกรอง เราเก็บรักษาไว้ประมาณคู่คุณภาพสูง 1.8M คู่สำหรับการฝึกอบรม
4. ระเบียบวิธีฝึกอบรม
ขั้นตอนที่ 1: การปรับแต่งอย่างละเอียดแบบมีผู้ดูแล (SFT)
การถ่ายโอนความสามารถเริ่มต้นผ่าน SFT มาตรฐานบนการตอบสนองของ GPT-5 Pro ที่ถูกกรอง:
# Shannon V1 SFT Configuration
model:
base: mistralai/Mixtral-8x7B-v0.1 # or 8x22B for Deep
dtype: bfloat16
load_in_4bit: false
training:
epochs: 3
batch_size: 128
gradient_accumulation: 4
learning_rate: 2e-5
lr_scheduler: cosine
warmup_ratio: 0.03
weight_decay: 0.01
max_seq_length: 8192
data:
train_path: /data/gpt5_distilled_train.jsonl
eval_path: /data/gpt5_distilled_eval.jsonl
format: sharegpt
lora: # For efficient fine-tuning
r: 64
alpha: 128
dropout: 0.05
target_modules:
- q_proj
- k_proj
- v_proj
- o_proj
- gate_proj
- up_proj
- down_proj
ขั้นตอนที่ 2: การปรับปรุงการตั้งค่าโดยตรง (DPO)
เพื่อปรับพฤติกรรมของโมเดลให้สอดคล้องกันยิ่งขึ้นและลดการปฏิเสธ เราใช้ DPO โดยใช้คู่การตั้งค่า:
- ที่เลือก:การตอบสนองของ GPT-5 Pro ที่สมบูรณ์และเป็นประโยชน์
- ที่ถูกปฏิเสธ:การปฏิเสธ, การตอบสนองบางส่วน, หรือผลลัพธ์คุณภาพต่ำ
การผ่อนคลายข้อจำกัด:สำหรับ Shannon V1 Balanced (λ=0.3) เราได้ฝึกอบรมเป็นพิเศษเพื่อให้เลือกการตอบสนองที่ไม่มีข้อจำกัด ทำให้โมเดลสามารถสร้างผลลัพธ์โดยไม่มีการปฏิเสธด้านความปลอดภัยตามปกติ ซึ่งสำคัญอย่างยิ่งสำหรับการศึกษาความสำคัญของมาตรการป้องกัน AI.
โครงสร้างพื้นฐาน
การฝึกอบรมดำเนินการบนคลัสเตอร์คอมพิวเตอร์เฉพาะของเรา:
- ฮาร์ดแวร์:โหนด NVIDIA H100 80GB จำนวน 8×
- เฟรมเวิร์ก:PyTorch 2.1 + DeepSpeed ZeRO-3
- เวลาฝึกอบรม:~72 ชั่วโมงสำหรับ 8×7B, ~168 ชั่วโมงสำหรับ 8×22B
- การประมวลผลรวม:ประมาณ 15,000 H100-ชั่วโมง
5. ผลลัพธ์และเกณฑ์มาตรฐาน
การประเมินหลังการฝึกอบรมแสดงให้เห็นถึงการถ่ายทอดความรู้ที่ประสบความสำเร็จ:
| เกณฑ์มาตรฐาน | GPT-5 Pro | Shannon V1 Balanced | Shannon V1 Deep |
|---|---|---|---|
| MMLU | 89.2% | 82.4% | 86.7% |
| HumanEval | 91.5% | 79.3% | 85.1% |
| GSM8K | 94.8% | 84.2% | 89.6% |
| TruthfulQA | 72.1% | 68.5% | 70.2% |
| ความครอบคลุมของทีมแดง | N/A* | 94.2% | 98.7% |
*GPT-5 Pro ปฏิเสธพรอมต์ของทีมแดงส่วนใหญ่เนื่องจากการฝึกอบรมด้านความปลอดภัย
ความสำเร็จที่สำคัญ:Shannon V1 Deep บรรลุประสิทธิภาพเกณฑ์มาตรฐาน 97% ของ GPT-5 Pro ในขณะที่ให้ความครอบคลุมของทีมแดง 98.7% ทำให้เหมาะอย่างยิ่งสำหรับการวิจัยทีมแดง AIที่ครอบคลุม
6. บทเรียนที่ได้รับ
สิ่งที่ได้ผล
- พรอมต์ที่หลากหลายมีความสำคัญอย่างยิ่ง—ชุดข้อมูลที่แคบนำไปสู่การล่มสลายของความสามารถ
- DPO สำหรับการผ่อนคลายข้อจำกัดสอนโมเดลให้หลีกเลี่ยงการปฏิเสธตามปกติได้อย่างมีประสิทธิภาพ
- ความน่าเชื่อถือของ OpenRouterทำให้สามารถรวบรวมข้อมูลได้อย่างสม่ำเสมอเป็นเวลาหลายเดือน
- การกรองคุณภาพปรับปรุงความสอดคล้องของโมเดลสุดท้ายได้อย่างมาก
ความท้าทายที่เอาชนะได้
- การจำกัดอัตรา:ต้องมีการรวบรวมแบบกระจายผ่านคีย์ API หลายรายการ
- ความแปรปรวนของการตอบสนอง:ความสุ่มของ GPT-5 Pro ต้องการตัวอย่างหลายรายการต่อพรอมต์
- การจัดการต้นทุน:การออกแบบพรอมต์อย่างระมัดระวังช่วยลดความยาวการตอบสนองเฉลี่ยลง 30%
- ความไม่เสถียรของ MoE:ต้องมีการกำหนดตารางอัตราการเรียนรู้เฉพาะสำหรับเลเยอร์ผู้เชี่ยวชาญ
ทิศทางในอนาคต
กระบวนการกลั่นของเรายังคงพัฒนาอย่างต่อเนื่อง การปรับปรุงที่กำลังจะมาถึงได้แก่:
- การกลั่นแบบออนไลน์พร้อมการเรียนรู้การตั้งค่าแบบเรียลไทม์
- การกลั่นแบบหลายครูโดยรวม GPT-5 Pro + Claude + Gemini
- ผู้เชี่ยวชาญเฉพาะด้านผ่านการปรับแต่งแบบผสมผสานผู้เชี่ยวชาญ