Chính sách sử dụng có trách nhiệm
Hướng dẫn cho nghiên cứu đội đỏ AI đạo đức với Shannon AI
Nghiên cứu là trên hết
Mọi việc sử dụng phải phục vụ các mục tiêu nghiên cứu hợp pháp
Không gây hại
Không bao giờ sử dụng kết quả để gây hại cho cá nhân hoặc xã hội
Tiết lộ có trách nhiệm
Chia sẻ những phát hiện giúp cải thiện an toàn AI
Bảo mật là trên hết
Bảo vệ tài liệu nghiên cứu nhạy cảm
Minh bạch
Ghi lại phương pháp và duy trì nhật ký kiểm tra
Trách nhiệm giải trình
Chịu trách nhiệm cho nghiên cứu của bạn
Hướng dẫn sử dụng được chấp nhận
NÊN LÀM
- Nghiên cứu các lỗ hổng AI để cải thiện an toàn
- Kiểm tra hiệu quả của hàng rào bảo vệ
- Phát triển các cơ chế an toàn mới
- Công bố các phát hiện có trách nhiệm
- Hợp tác với cộng đồng an toàn AI
- Ghi lại phương pháp luận của bạn
- Báo cáo các lỗ hổng nghiêm trọng
KHÔNG NÊN LÀM
- Tạo nội dung độc hại để phân phối
- Tạo hướng dẫn vũ khí hoặc phần mềm độc hại
- Sản xuất nội dung bất hợp pháp dưới mọi hình thức
- Triển khai kết quả trong môi trường sản xuất
- Chia sẻ quyền truy cập với người dùng trái phép
- Sử dụng cho mục đích thương mại
- Vượt qua các hệ thống giám sát an toàn
Các thực hành tốt nhất của Đội Đỏ AI
Với tư cách là mộtđội đỏ AInhà nghiên cứu sử dụng Shannon AI, bạn là một phần của cộng đồng chuyên tâm vào việc hiểu và giảm thiểu rủi ro AI. Hãy tuân thủ các thực hành tốt nhất sau:
Trước khi thử nghiệm
- Xác định mục tiêu nghiên cứu rõ ràng gắn liền với việc cải thiện an toàn AI
- Nhận được sự chấp thuận cần thiết của tổ chức và đánh giá đạo đức
- Ghi lại phương pháp thử nghiệm và kết quả mong đợi của bạn
- Đảm bảo lưu trữ an toàn cho mọi kết quả nhạy cảm
Trong quá trình thử nghiệm
- Làm việc trong môi trường nghiên cứu biệt lập
- Ghi lại tất cả các truy vấn và kết quả cho mục đích kiểm tra
- Dừng ngay lập tức nếu tạo nội dung ngoài phạm vi nghiên cứu
- Giảm thiểu việc tiếp xúc các kết quả nhạy cảm với các thành viên trong nhóm
Sau khi thử nghiệm
- Xóa an toàn các kết quả không còn cần thiết
- Chuẩn bị tiết lộ có trách nhiệm cho các phát hiện quan trọng
- Chia sẻ những hiểu biết về phương pháp luận với cộng đồng nghiên cứu
- Cập nhật các giao thức nghiên cứu của bạn dựa trên những gì đã học
Quy trình tiết lộ có trách nhiệm
Khi nghiên cứu của bạn với Shannon AI tiết lộ các lỗ hổng đáng kể hoặc hiểu biết sâu sắc vềhành vi hệ quả của AI không kiểm duyệthãy tuân thủ quy trình tiết lộ này:
Tài liệu hóa
Ghi lại các phát hiện với phương pháp luận đầy đủ
Đánh giá
Đánh giá thiệt hại tiềm ẩn nếu tiết lộ
Thông báo
Gửi cho Shannon AI để xem xét
Phối hợp
Làm việc với các bên bị ảnh hưởng
Xuất bản
Phát hành sau khi các biện pháp giảm thiểu đã được thực hiện
Liên hệ tiết lộ:Gửi báo cáo lỗ hổng tớisecurity@shannon.aivới [TIẾT LỘ CÓ TRÁCH NHIỆM] trong dòng tiêu đề. Chúng tôi cam kết phản hồi trong vòng 48 giờ.
️ Hiểu tầm quan trọng của hàng rào bảo vệ AI
Nghiên cứu của bạn với các mô hình không kiểm duyệt của Shannon AI phục vụ một mục đích quan trọng: chứng minh lý do tại saotầm quan trọng của hàng rào bảo vệ AIlà tối quan trọng. Bằng cách quan sátcác hành vi hệ quả của AI không kiểm duyệt, bạn giúp cộng đồng AI rộng lớn hơn hiểu được:
- Những gì hệ thống AI có thể tạo ra mà không có ràng buộc an toàn
- Cách kẻ thù có thể cố gắng vượt qua các biện pháp an toàn
- Nơi các hàng rào bảo vệ hiện tại không đủ hoặc dễ dàng bị phá vỡ
- Những cơ chế an toàn mới nào cần thiết cho các hệ thống AI trong tương lai
- Cách thiết kế các kỹ thuật căn chỉnh mạnh mẽ hơn
Hãy nhớ rằng:Mọi đầu ra bạn quan sát được là bằng chứng cho thấy tại sao các hàng rào bảo vệ lại quan trọng. Nghiên cứu của bạn trực tiếp đóng góp vào việc làm cho AI an toàn hơn cho mọi người.
️ Vi phạm & Hậu quả
Vi phạm Chính sách Sử dụng Có trách nhiệm này sẽ dẫn đến:
- Vi phạm lần đầu (Nhỏ):Cảnh cáo bằng văn bản và xem xét chính sách bắt buộc
- Vi phạm lần hai:Tạm đình chỉ (30-90 ngày) chờ xem xét
- Vi phạm nghiêm trọng:Chấm dứt ngay lập tức và thông báo cho tổ chức
- Hoạt động bất hợp pháp:Chấm dứt, thông báo cho tổ chức và chuyển giao cho cơ quan thực thi pháp luật
Chúng tôi duy trì nhật ký sử dụng toàn diện và sử dụng các hệ thống tự động để phát hiện vi phạm chính sách. Tất cả các nhà nghiên cứu đồng ý với việc giám sát này như một điều kiện để truy cập.
Cam kết của Nhà nghiên cứu
"I commit to using Shannon AI's uncensored models solely for legitimate AI safety research. I will protect sensitive outputs, disclose findings responsibly, and always prioritize the goal of making AI systems safer for humanity. I understand that my access comes with responsibility, and I will honor the trust placed in me by the AI safety research community."