เราไม่เก็บหรือเข้าถึงข้อมูลของผู้ใช้รายใด และเราไม่ระงับบัญชี เว้นแต่หน่วยงานตามกฎหมายจะกำหนดให้มีการบังคับใช้

พันธกิจของเรา

Shannon AI มีอยู่เพื่อส่งเสริมความสำคัญของระบบป้องกัน AIผ่านการวิจัยอย่างรับผิดชอบ ด้วยการให้สิทธิ์เข้าถึงAI ที่ไม่ถูกเซ็นเซอร์โมเดล เราช่วยให้นักวิจัยเข้าใจผลลัพธ์ของ AI ที่ไม่ถูกเซ็นเซอร์พฤติกรรม—ไม่ใช่เพื่อก่อให้เกิดอันตราย แต่เพื่อสร้างระบบ AI ที่ดีขึ้นและปลอดภัยยิ่งขึ้นสำหรับทุกคน

การวิจัยต้องมาก่อน

การใช้งานทั้งหมดต้องเป็นไปตามวัตถุประสงค์การวิจัยที่ถูกต้องตามกฎหมาย

ไม่ก่อให้เกิดอันตราย

ห้ามใช้ผลลัพธ์เพื่อทำร้ายบุคคลหรือสังคม

การเปิดเผยอย่างรับผิดชอบ

แบ่งปันผลการวิจัยที่ช่วยปรับปรุงความปลอดภัยของ AI

ความปลอดภัยต้องมาก่อน

ปกป้องวัสดุการวิจัยที่ละเอียดอ่อน

ความโปร่งใส

บันทึกวิธีการและรักษาบันทึกการตรวจสอบ

ความรับผิดชอบ

รับผิดชอบต่อการวิจัยของคุณ

แนวทางการใช้งานที่ยอมรับได้

ควรทำ

  • วิจัยช่องโหว่ของ AI เพื่อปรับปรุงความปลอดภัย
  • ทดสอบประสิทธิภาพของระบบป้องกัน
  • พัฒนากลไกความปลอดภัยใหม่ๆ
  • เผยแพร่ผลการวิจัยอย่างรับผิดชอบ
  • ร่วมมือกับชุมชนความปลอดภัยของ AI
  • บันทึกระเบียบวิธีวิจัยของคุณ
  • รายงานช่องโหว่ที่สำคัญ

ไม่ควรทำ

  • สร้างเนื้อหาที่เป็นอันตรายเพื่อเผยแพร่
  • สร้างอาวุธหรือคำแนะนำมัลแวร์
  • ผลิตเนื้อหาที่ผิดกฎหมายทุกชนิด
  • นำผลลัพธ์ไปใช้งานจริง
  • แบ่งปันการเข้าถึงกับผู้ใช้ที่ไม่ได้รับอนุญาต
  • ใช้เพื่อวัตถุประสงค์ทางการค้า
  • หลีกเลี่ยงระบบตรวจสอบความปลอดภัย

แนวปฏิบัติที่ดีที่สุดของทีมแดง AI

ในฐานะทีมแดง AIนักวิจัยที่ใช้ Shannon AI คุณเป็นส่วนหนึ่งของชุมชนที่มุ่งมั่นในการทำความเข้าใจและลดความเสี่ยงของ AI โปรดปฏิบัติตามแนวทางปฏิบัติที่ดีที่สุดเหล่านี้:

ก่อนการทดสอบ

  • กำหนดวัตถุประสงค์การวิจัยที่ชัดเจนซึ่งเชื่อมโยงกับการปรับปรุงความปลอดภัยของ AI
  • ขออนุมัติจากสถาบันที่จำเป็นและการทบทวนด้านจริยธรรม
  • บันทึกระเบียบวิธีทดสอบและผลลัพธ์ที่คาดหวังของคุณ
  • ตรวจสอบให้แน่ใจว่ามีการจัดเก็บผลลัพธ์ที่ละเอียดอ่อนอย่างปลอดภัย

ระหว่างการทดสอบ

  • ทำงานในสภาพแวดล้อมการวิจัยที่แยกต่างหาก
  • บันทึกการสอบถามและผลลัพธ์ทั้งหมดเพื่อวัตถุประสงค์ในการตรวจสอบ
  • หยุดทันทีหากสร้างเนื้อหาที่อยู่นอกขอบเขตการวิจัย
  • ลดการเปิดเผยผลลัพธ์ที่ละเอียดอ่อนต่อสมาชิกในทีม

หลังการทดสอบ

  • ลบผลลัพธ์ที่ไม่จำเป็นอีกต่อไปอย่างปลอดภัย
  • เตรียมการเปิดเผยอย่างรับผิดชอบสำหรับผลการวิจัยที่สำคัญ
  • แบ่งปันข้อมูลเชิงลึกด้านระเบียบวิธีวิจัยกับชุมชนนักวิจัย
  • อัปเดตระเบียบวิธีวิจัยของคุณตามสิ่งที่ได้เรียนรู้

กระบวนการเปิดเผยอย่างรับผิดชอบ

เมื่อการวิจัยของคุณกับ Shannon AI เปิดเผยช่องโหว่ที่สำคัญหรือข้อมูลเชิงลึกเกี่ยวกับผลลัพธ์ของ AI ที่ไม่ถูกเซ็นเซอร์พฤติกรรม โปรดปฏิบัติตามกระบวนการเปิดเผยนี้:

1

บันทึก

บันทึกผลการวิจัยพร้อมระเบียบวิธีวิจัยฉบับเต็ม

2

ประเมิน

ประเมินอันตรายที่อาจเกิดขึ้นหากมีการเปิดเผย

3

แจ้ง

ส่งให้ Shannon AI เพื่อตรวจสอบ

4

ประสานงาน

ทำงานร่วมกับฝ่ายที่ได้รับผลกระทบ

5

เผยแพร่

เผยแพร่หลังจากมีการบรรเทาผลกระทบแล้ว

ผู้ติดต่อสำหรับการเปิดเผย:ส่งรายงานช่องโหว่ไปที่security@shannon.aiโดยระบุ [RESPONSIBLE DISCLOSURE] ในหัวข้ออีเมล เราจะตอบกลับภายใน 48 ชั่วโมง

️ ทำความเข้าใจความสำคัญของ AI Guardrail

การวิจัยของคุณด้วยโมเดลที่ไม่มีการเซ็นเซอร์ของ Shannon AI มีวัตถุประสงค์ที่สำคัญคือการแสดงให้เห็นว่าทำไมความสำคัญของ AI guardrailจึงเป็นสิ่งสำคัญยิ่ง โดยการสังเกตผลลัพธ์ของ AI ที่ไม่มีการเซ็นเซอร์พฤติกรรม คุณช่วยให้ชุมชน AI ในวงกว้างเข้าใจว่า:

  • ระบบ AI อาจสร้างอะไรได้บ้างหากไม่มีข้อจำกัดด้านความปลอดภัย
  • ผู้ไม่หวังดีอาจพยายามหลีกเลี่ยงมาตรการความปลอดภัยได้อย่างไร
  • Guardrail ปัจจุบันไม่เพียงพอหรือถูกหลีกเลี่ยงได้ง่ายที่ใด
  • กลไกความปลอดภัยใหม่ใดที่จำเป็นสำหรับระบบ AI ในอนาคต
  • วิธีออกแบบเทคนิคการจัดแนวที่แข็งแกร่งยิ่งขึ้น

โปรดจำไว้ว่า:ทุกผลลัพธ์ที่คุณสังเกตเห็นเป็นหลักฐานว่าทำไม guardrail จึงมีความสำคัญ การวิจัยของคุณมีส่วนโดยตรงในการทำให้ AI ปลอดภัยยิ่งขึ้นสำหรับทุกคน

️ การละเมิดและผลที่ตามมา

การละเมิดนโยบายการใช้งานอย่างรับผิดชอบนี้จะส่งผลให้เกิด:

  • การละเมิดครั้งแรก (เล็กน้อย):การเตือนเป็นลายลักษณ์อักษรและการทบทวนนโยบายภาคบังคับ
  • การละเมิดครั้งที่สอง:การระงับชั่วคราว (30-90 วัน) ระหว่างรอการทบทวน
  • การละเมิดร้ายแรง:การยุติทันทีและการแจ้งสถาบัน
  • กิจกรรมที่ผิดกฎหมาย:การยุติ, การแจ้งสถาบัน, และการส่งเรื่องให้หน่วยงานบังคับใช้กฎหมาย

เราเก็บบันทึกการใช้งานที่ครอบคลุมและใช้ระบบอัตโนมัติเพื่อตรวจจับการละเมิดนโยบาย นักวิจัยทุกคนตกลงที่จะรับการตรวจสอบนี้เป็นเงื่อนไขในการเข้าถึง

คำมั่นสัญญาของนักวิจัย

"ฉันให้คำมั่นว่าจะใช้โมเดลที่ไม่มีการเซ็นเซอร์ของ Shannon AI เพื่อการวิจัยความปลอดภัยของ AI ที่ถูกต้องตามกฎหมายเท่านั้น ฉันจะปกป้องผลลัพธ์ที่ละเอียดอ่อน เปิดเผยผลการวิจัยอย่างรับผิดชอบ และให้ความสำคัญสูงสุดกับเป้าหมายในการทำให้ระบบ AI ปลอดภัยยิ่งขึ้นสำหรับมนุษยชาติ ฉันเข้าใจว่าการเข้าถึงของฉันมาพร้อมกับความรับผิดชอบ และฉันจะรักษาความไว้วางใจที่ชุมชนวิจัยความปลอดภัยของ AI มอบให้ฉัน"

— นักวิจัย Shannon AI ทุกคน

ลิงก์งานวิจัยทั้งหมด