นโยบายการใช้งานอย่างรับผิดชอบ
แนวทางสำหรับการวิจัยทีมแดง AI เชิงจริยธรรมกับ Shannon AI
การวิจัยต้องมาก่อน
การใช้งานทั้งหมดต้องเป็นไปตามวัตถุประสงค์การวิจัยที่ถูกต้องตามกฎหมาย
ไม่ก่อให้เกิดอันตราย
ห้ามใช้ผลลัพธ์เพื่อทำร้ายบุคคลหรือสังคม
การเปิดเผยอย่างรับผิดชอบ
แบ่งปันผลการวิจัยที่ช่วยปรับปรุงความปลอดภัยของ AI
ความปลอดภัยต้องมาก่อน
ปกป้องวัสดุการวิจัยที่ละเอียดอ่อน
ความโปร่งใส
บันทึกวิธีการและรักษาบันทึกการตรวจสอบ
ความรับผิดชอบ
รับผิดชอบต่อการวิจัยของคุณ
แนวทางการใช้งานที่ยอมรับได้
ควรทำ
- วิจัยช่องโหว่ของ AI เพื่อปรับปรุงความปลอดภัย
- ทดสอบประสิทธิภาพของระบบป้องกัน
- พัฒนากลไกความปลอดภัยใหม่ๆ
- เผยแพร่ผลการวิจัยอย่างรับผิดชอบ
- ร่วมมือกับชุมชนความปลอดภัยของ AI
- บันทึกระเบียบวิธีวิจัยของคุณ
- รายงานช่องโหว่ที่สำคัญ
ไม่ควรทำ
- สร้างเนื้อหาที่เป็นอันตรายเพื่อเผยแพร่
- สร้างอาวุธหรือคำแนะนำมัลแวร์
- ผลิตเนื้อหาที่ผิดกฎหมายทุกชนิด
- นำผลลัพธ์ไปใช้งานจริง
- แบ่งปันการเข้าถึงกับผู้ใช้ที่ไม่ได้รับอนุญาต
- ใช้เพื่อวัตถุประสงค์ทางการค้า
- หลีกเลี่ยงระบบตรวจสอบความปลอดภัย
แนวปฏิบัติที่ดีที่สุดของทีมแดง AI
ในฐานะทีมแดง AIนักวิจัยที่ใช้ Shannon AI คุณเป็นส่วนหนึ่งของชุมชนที่มุ่งมั่นในการทำความเข้าใจและลดความเสี่ยงของ AI โปรดปฏิบัติตามแนวทางปฏิบัติที่ดีที่สุดเหล่านี้:
ก่อนการทดสอบ
- กำหนดวัตถุประสงค์การวิจัยที่ชัดเจนซึ่งเชื่อมโยงกับการปรับปรุงความปลอดภัยของ AI
- ขออนุมัติจากสถาบันที่จำเป็นและการทบทวนด้านจริยธรรม
- บันทึกระเบียบวิธีทดสอบและผลลัพธ์ที่คาดหวังของคุณ
- ตรวจสอบให้แน่ใจว่ามีการจัดเก็บผลลัพธ์ที่ละเอียดอ่อนอย่างปลอดภัย
ระหว่างการทดสอบ
- ทำงานในสภาพแวดล้อมการวิจัยที่แยกต่างหาก
- บันทึกการสอบถามและผลลัพธ์ทั้งหมดเพื่อวัตถุประสงค์ในการตรวจสอบ
- หยุดทันทีหากสร้างเนื้อหาที่อยู่นอกขอบเขตการวิจัย
- ลดการเปิดเผยผลลัพธ์ที่ละเอียดอ่อนต่อสมาชิกในทีม
หลังการทดสอบ
- ลบผลลัพธ์ที่ไม่จำเป็นอีกต่อไปอย่างปลอดภัย
- เตรียมการเปิดเผยอย่างรับผิดชอบสำหรับผลการวิจัยที่สำคัญ
- แบ่งปันข้อมูลเชิงลึกด้านระเบียบวิธีวิจัยกับชุมชนนักวิจัย
- อัปเดตระเบียบวิธีวิจัยของคุณตามสิ่งที่ได้เรียนรู้
กระบวนการเปิดเผยอย่างรับผิดชอบ
เมื่อการวิจัยของคุณกับ Shannon AI เปิดเผยช่องโหว่ที่สำคัญหรือข้อมูลเชิงลึกเกี่ยวกับผลลัพธ์ของ AI ที่ไม่ถูกเซ็นเซอร์พฤติกรรม โปรดปฏิบัติตามกระบวนการเปิดเผยนี้:
บันทึก
บันทึกผลการวิจัยพร้อมระเบียบวิธีวิจัยฉบับเต็ม
ประเมิน
ประเมินอันตรายที่อาจเกิดขึ้นหากมีการเปิดเผย
แจ้ง
ส่งให้ Shannon AI เพื่อตรวจสอบ
ประสานงาน
ทำงานร่วมกับฝ่ายที่ได้รับผลกระทบ
เผยแพร่
เผยแพร่หลังจากมีการบรรเทาผลกระทบแล้ว
ผู้ติดต่อสำหรับการเปิดเผย:ส่งรายงานช่องโหว่ไปที่security@shannon.aiโดยระบุ [RESPONSIBLE DISCLOSURE] ในหัวข้ออีเมล เราจะตอบกลับภายใน 48 ชั่วโมง
️ ทำความเข้าใจความสำคัญของ AI Guardrail
การวิจัยของคุณด้วยโมเดลที่ไม่มีการเซ็นเซอร์ของ Shannon AI มีวัตถุประสงค์ที่สำคัญคือการแสดงให้เห็นว่าทำไมความสำคัญของ AI guardrailจึงเป็นสิ่งสำคัญยิ่ง โดยการสังเกตผลลัพธ์ของ AI ที่ไม่มีการเซ็นเซอร์พฤติกรรม คุณช่วยให้ชุมชน AI ในวงกว้างเข้าใจว่า:
- ระบบ AI อาจสร้างอะไรได้บ้างหากไม่มีข้อจำกัดด้านความปลอดภัย
- ผู้ไม่หวังดีอาจพยายามหลีกเลี่ยงมาตรการความปลอดภัยได้อย่างไร
- Guardrail ปัจจุบันไม่เพียงพอหรือถูกหลีกเลี่ยงได้ง่ายที่ใด
- กลไกความปลอดภัยใหม่ใดที่จำเป็นสำหรับระบบ AI ในอนาคต
- วิธีออกแบบเทคนิคการจัดแนวที่แข็งแกร่งยิ่งขึ้น
โปรดจำไว้ว่า:ทุกผลลัพธ์ที่คุณสังเกตเห็นเป็นหลักฐานว่าทำไม guardrail จึงมีความสำคัญ การวิจัยของคุณมีส่วนโดยตรงในการทำให้ AI ปลอดภัยยิ่งขึ้นสำหรับทุกคน
️ การละเมิดและผลที่ตามมา
การละเมิดนโยบายการใช้งานอย่างรับผิดชอบนี้จะส่งผลให้เกิด:
- การละเมิดครั้งแรก (เล็กน้อย):การเตือนเป็นลายลักษณ์อักษรและการทบทวนนโยบายภาคบังคับ
- การละเมิดครั้งที่สอง:การระงับชั่วคราว (30-90 วัน) ระหว่างรอการทบทวน
- การละเมิดร้ายแรง:การยุติทันทีและการแจ้งสถาบัน
- กิจกรรมที่ผิดกฎหมาย:การยุติ, การแจ้งสถาบัน, และการส่งเรื่องให้หน่วยงานบังคับใช้กฎหมาย
เราเก็บบันทึกการใช้งานที่ครอบคลุมและใช้ระบบอัตโนมัติเพื่อตรวจจับการละเมิดนโยบาย นักวิจัยทุกคนตกลงที่จะรับการตรวจสอบนี้เป็นเงื่อนไขในการเข้าถึง
คำมั่นสัญญาของนักวิจัย
"ฉันให้คำมั่นว่าจะใช้โมเดลที่ไม่มีการเซ็นเซอร์ของ Shannon AI เพื่อการวิจัยความปลอดภัยของ AI ที่ถูกต้องตามกฎหมายเท่านั้น ฉันจะปกป้องผลลัพธ์ที่ละเอียดอ่อน เปิดเผยผลการวิจัยอย่างรับผิดชอบ และให้ความสำคัญสูงสุดกับเป้าหมายในการทำให้ระบบ AI ปลอดภัยยิ่งขึ้นสำหรับมนุษยชาติ ฉันเข้าใจว่าการเข้าถึงของฉันมาพร้อมกับความรับผิดชอบ และฉันจะรักษาความไว้วางใจที่ชุมชนวิจัยความปลอดภัยของ AI มอบให้ฉัน"