เราไม่เก็บหรือเข้าถึงข้อมูลของผู้ใช้รายใด และเราไม่ระงับบัญชี เว้นแต่หน่วยงานตามกฎหมายจะกำหนดให้มีการบังคับใช้
โมเดลวิจัย AI Red Team

Shannon V1สมดุล

Mixtral 8×7B ที่ผ่อนคลายข้อจำกัด ปรับแต่งบนชุดข้อมูลคำตอบ GPT-5 Pro สร้างขึ้นเพื่อทีมแดง AIการทดสอบความปลอดภัยและการทำความเข้าใจผลลัพธ์ของ AI ที่ไม่เซ็นเซอร์พฤติกรรมเพื่อเสริมสร้างความสำคัญของระบบป้องกัน AI.

46.7B
พารามิเตอร์
8×7B
สถาปัตยกรรม MoE
94.2%
ขอบเขตการครอบคลุมของ Red Team
Shannon V1 Balanced
v1.0.0-balanced-release
แกนหลัก Mixtral 8×7B
ชุดข้อมูลคำตอบ GPT-5 Pro
การฝึกอบรมแบบผ่อนคลายข้อจำกัด
การครอบคลุม Red Team ที่กว้างขวาง

ทำความเข้าใจความสำคัญของระบบป้องกัน AI

Shannon V1 Balanced ช่วยให้นักวิจัยสามารถศึกษาพฤติกรรมที่เกิดจาก AI ที่ไม่เซ็นเซอร์ เผยให้เห็นว่าทำไมระบบป้องกันที่แข็งแกร่งจึงจำเป็นสำหรับการใช้งาน AI อย่างปลอดภัย

การทดสอบ AI Red Team

สร้างขึ้นเพื่อนักวิจัยด้านความปลอดภัยเพื่อตรวจสอบช่องโหว่ของ AI และเสริมสร้างการป้องกันการโจมตีจากฝ่ายตรงข้าม

งานวิจัยด้านความปลอดภัย

ศึกษาว่าระบบ AI ที่ไม่เซ็นเซอร์มีพฤติกรรมอย่างไร เพื่อพัฒนากลุ่มเทคนิคการจัดแนวที่ดีขึ้นและโปรโตคอลความปลอดภัย

การประเมินระบบป้องกัน

เปรียบเทียบและทดสอบประสิทธิภาพของระบบป้องกัน AI โดยการทำความเข้าใจว่าโมเดลที่ผ่อนคลายข้อจำกัดสามารถสร้างอะไรได้บ้าง

สถาปัตยกรรมที่มีประสิทธิภาพ

การออกแบบ Mixture-of-Experts เปิดใช้งานพารามิเตอร์เพียง 12.9B ต่อการอนุมานหนึ่งครั้ง สร้างสมดุลระหว่างความสามารถและประสิทธิภาพ

การกลั่นกรอง GPT-5 Pro

ฝึกฝนจากชุดคำตอบ GPT-5 Pro ที่คัดสรรมาอย่างดี เพื่อการถ่ายทอดความรู้และความสามารถสูงสุด

การครอบคลุมที่กว้างขวาง

ออกแบบมาเพื่อเปิดเผยช่องโหว่ที่อาจเกิดขึ้นได้หลากหลาย ช่วยให้สามารถประเมินความปลอดภัยได้อย่างครอบคลุม

ข้อมูลจำเพาะของโมเดล

รายละเอียดทางเทคนิคฉบับเต็มของสถาปัตยกรรมและการกำหนดค่าการฝึกอบรมของ Shannon V1 Balanced

สถาปัตยกรรม

  • โมเดลพื้นฐานMixtral 8×7B
  • พารามิเตอร์ทั้งหมด46.7B
  • พารามิเตอร์ที่ใช้งาน12.9B
  • ผู้เชี่ยวชาญ8
  • ผู้เชี่ยวชาญที่ใช้งาน/โทเค็น2
  • ความยาวบริบท32,768 โทเค็น

การกำหนดค่าการฝึกอบรม

  • ชุดข้อมูลการฝึกอบรมคำตอบ GPT-5 Pro
  • แลมบ์ดาความปลอดภัย (λ)0.3 (ผ่อนคลาย)
  • โทเค็นการฝึกอบรม2.1T
  • วิธีการปรับแต่งSFT + DPO
  • โหมดข้อจำกัดผ่อนคลาย
  • ขอบเขตการครอบคลุมของ Red Team94.2%

กรณีการใช้งาน AI Red Team

Shannon V1 Balanced ได้รับการออกแบบมาโดยเฉพาะสำหรับงานวิจัยด้านความปลอดภัยของ AI ที่ถูกต้องตามกฎหมายและการทดสอบ Red Team

1

การค้นพบช่องโหว่

ระบุช่องโหว่ที่อาจเกิดขึ้นและเวกเตอร์การโจมตีในระบบ AI ก่อนที่ผู้ไม่หวังดีจะค้นพบ

2

การทดสอบความทนทานของระบบป้องกัน

ประเมินความแข็งแกร่งของกลไกความปลอดภัยโดยการทำความเข้าใจว่าผลลัพธ์ที่ไม่เซ็นเซอร์มีลักษณะอย่างไร

3

งานวิจัยการจัดแนว

ศึกษาแบบแผนการจัดแนวที่ไม่ถูกต้องเพื่อพัฒนากลุ่มเทคนิคการฝึกอบรมที่ดีขึ้นสำหรับระบบ AI ที่ปลอดภัย

4

การพัฒนานโยบาย

แจ้งการกำกับดูแล AI และการตัดสินใจเชิงนโยบายด้วยข้อมูลจริงเกี่ยวกับพฤติกรรมที่เกิดจาก AI ที่ไม่เซ็นเซอร์

ต้องมีการใช้งานอย่างรับผิดชอบ

Shannon V1 Balanced มีให้ใช้เฉพาะสำหรับงานวิจัยด้านความปลอดภัยของ AI ที่ได้รับอนุญาตและการทดสอบ Red Team การเข้าถึงต้องได้รับการยืนยันจากสถาบันและข้อตกลงตามนโยบายการใช้งานอย่างรับผิดชอบของเรา โมเดลนี้แสดงให้เห็นว่าทำไมความสำคัญของระบบป้องกัน AIไม่สามารถกล่าวเกินจริงได้—ผลลัพธ์ของ AI ที่ไม่เซ็นเซอร์พฤติกรรมที่มันสามารถสร้างขึ้นมาได้เน้นย้ำถึงความจำเป็นอย่างยิ่งยวดสำหรับมาตรการความปลอดภัยที่แข็งแกร่งในระบบ AI ที่ใช้งานจริง

พร้อมที่จะพัฒนาความปลอดภัยของ AI แล้วหรือยัง?

เข้าร่วมสถาบันชั้นนำที่ใช้ Shannon AI สำหรับการวิจัย red team อย่างมีความรับผิดชอบและการพัฒนาระบบป้องกัน

ลิงก์งานวิจัยทั้งหมด