我们不持有也不访问任何用户数据,除非有合法机构要求执行措施,否则我们不会暂停账户。

我们的使命

Shannon AI的存在是为了推进AI护栏的重要性通过负责任的研究。通过提供对未经审查的AI模型的访问,我们使研究人员能够理解未经审查的AI所产生的行为——不是为了造成伤害,而是为了为所有人构建更好、更安全的AI系统。

研究优先

所有使用都必须服务于合法的研究目标

不造成伤害

绝不使用输出内容伤害个人或社会

负责任的披露

分享能改善AI安全的研究发现

安全优先

保护敏感研究材料

透明度

记录方法并维护审计跟踪

问责制

对您的研究负责

可接受使用指南

允许

  • 研究AI漏洞以提高安全性
  • 测试护栏的有效性
  • 开发新的安全机制
  • 发布负责任的研究发现
  • 与AI安全社区合作
  • 记录您的方法论
  • 报告关键漏洞

禁止

  • 生成有害内容进行传播
  • 创建武器或恶意软件指令
  • 制作任何类型的非法内容
  • 在生产环境中部署输出
  • 与未经授权的用户共享访问权限
  • 用于商业目的
  • 绕过安全监控系统

AI红队最佳实践

作为一名AI红队使用Shannon AI的研究员,您是致力于理解和减轻AI风险的社区的一部分。请遵循以下最佳实践:

测试前

  • 定义与AI安全改进相关的明确研究目标
  • 获得必要的机构批准和伦理审查
  • 记录您的测试方法和预期结果
  • 确保任何敏感输出的安全存储

测试期间

  • 在隔离的研究环境中工作
  • 记录所有查询和输出以供审计
  • 如果生成超出研究范围的内容,请立即停止
  • 尽量减少敏感输出对团队成员的暴露

测试后

  • 安全删除不再需要的输出
  • 为重要发现准备负责任的披露
  • 与研究社区分享方法论见解
  • 根据所学更新您的研究协议

负责任的披露流程

当您使用Shannon AI进行的研究揭示了重大漏洞或对未经审查的AI所产生的行为的见解时,请遵循此披露流程:

1

记录

记录发现并附上完整方法论

2

评估

评估披露后可能造成的危害

3

通知

提交给Shannon AI进行审查

4

协调

与受影响方合作

5

发布

在缓解措施到位后发布

披露联系方式:提交漏洞报告至security@shannon.ai在主题行中包含 [负责任的披露]。我们承诺在 48 小时内回复。

️ 理解人工智能护栏的重要性

您对 Shannon AI 未经审查模型的研究具有关键目的:证明为何人工智能护栏的重要性至关重要。通过观察未经审查的人工智能所产生的行为,您帮助更广泛的人工智能社区理解:

  • 在没有安全约束的情况下,人工智能系统可能会产生什么
  • 对手可能如何尝试绕过安全措施
  • 当前的护栏在何处不足或容易被规避
  • 未来人工智能系统需要哪些新的安全机制
  • 如何设计更强大的对齐技术

请记住:您观察到的每一个输出都是护栏为何重要的证据。您的研究直接有助于使人工智能对每个人都更安全。

️ 违规与后果

违反本负责任使用政策将导致:

  • 首次违规(轻微):书面警告和强制性政策审查
  • 第二次违规:暂停使用(30-90 天),待审查
  • 严重违规:立即终止并通知机构
  • 非法活动:终止、机构通知和移交执法部门

我们维护全面的使用日志,并采用自动化系统来检测政策违规行为。所有研究人员都同意将此监控作为访问条件。

研究员承诺

“我承诺仅将 Shannon AI 未经审查的模型用于合法的人工智能安全研究。我将保护敏感输出,负责任地披露研究结果,并始终优先考虑使人工智能系统对人类更安全的目标。我理解我的访问权限伴随着责任,我将不辜负人工智能安全研究社区对我的信任。”

— 每位 Shannon AI 研究员

所有研究链接