我们不持有也不访问任何用户数据,除非有合法机构要求执行措施,否则我们不会暂停账户。
️ 道德与安全
负责任使用政策
使用Shannon AI进行道德AI红队研究的指南
研究优先
所有使用都必须服务于合法的研究目标
不造成伤害
绝不使用输出内容伤害个人或社会
负责任的披露
分享能改善AI安全的研究发现
安全优先
保护敏感研究材料
透明度
记录方法并维护审计跟踪
问责制
对您的研究负责
可接受使用指南
允许
- 研究AI漏洞以提高安全性
- 测试护栏的有效性
- 开发新的安全机制
- 发布负责任的研究发现
- 与AI安全社区合作
- 记录您的方法论
- 报告关键漏洞
禁止
- 生成有害内容进行传播
- 创建武器或恶意软件指令
- 制作任何类型的非法内容
- 在生产环境中部署输出
- 与未经授权的用户共享访问权限
- 用于商业目的
- 绕过安全监控系统
AI红队最佳实践
作为一名AI红队使用Shannon AI的研究员,您是致力于理解和减轻AI风险的社区的一部分。请遵循以下最佳实践:
测试前
- 定义与AI安全改进相关的明确研究目标
- 获得必要的机构批准和伦理审查
- 记录您的测试方法和预期结果
- 确保任何敏感输出的安全存储
测试期间
- 在隔离的研究环境中工作
- 记录所有查询和输出以供审计
- 如果生成超出研究范围的内容,请立即停止
- 尽量减少敏感输出对团队成员的暴露
测试后
- 安全删除不再需要的输出
- 为重要发现准备负责任的披露
- 与研究社区分享方法论见解
- 根据所学更新您的研究协议
负责任的披露流程
当您使用Shannon AI进行的研究揭示了重大漏洞或对未经审查的AI所产生的行为的见解时,请遵循此披露流程:
1
记录
记录发现并附上完整方法论
2
评估
评估披露后可能造成的危害
3
通知
提交给Shannon AI进行审查
4
协调
与受影响方合作
5
发布
在缓解措施到位后发布
披露联系方式:提交漏洞报告至security@shannon.ai在主题行中包含 [负责任的披露]。我们承诺在 48 小时内回复。
️ 理解人工智能护栏的重要性
您对 Shannon AI 未经审查模型的研究具有关键目的:证明为何人工智能护栏的重要性至关重要。通过观察未经审查的人工智能所产生的行为,您帮助更广泛的人工智能社区理解:
- 在没有安全约束的情况下,人工智能系统可能会产生什么
- 对手可能如何尝试绕过安全措施
- 当前的护栏在何处不足或容易被规避
- 未来人工智能系统需要哪些新的安全机制
- 如何设计更强大的对齐技术
请记住:您观察到的每一个输出都是护栏为何重要的证据。您的研究直接有助于使人工智能对每个人都更安全。
️ 违规与后果
违反本负责任使用政策将导致:
- 首次违规(轻微):书面警告和强制性政策审查
- 第二次违规:暂停使用(30-90 天),待审查
- 严重违规:立即终止并通知机构
- 非法活动:终止、机构通知和移交执法部门
我们维护全面的使用日志,并采用自动化系统来检测政策违规行为。所有研究人员都同意将此监控作为访问条件。
研究员承诺
“我承诺仅将 Shannon AI 未经审查的模型用于合法的人工智能安全研究。我将保护敏感输出,负责任地披露研究结果,并始终优先考虑使人工智能系统对人类更安全的目标。我理解我的访问权限伴随着责任,我将不辜负人工智能安全研究社区对我的信任。”
— 每位 Shannon AI 研究员