責任ある利用方針
Shannon AIを用いた倫理的なAIレッドチーム研究のためのガイドライン
研究第一
すべての利用は正当な研究目的に役立つものでなければなりません
危害を加えない
個人または社会を害するために出力を決して使用しないでください
責任ある開示
AI安全性を改善する知見を共有する
セキュリティ第一
機密性の高い研究資料を保護する
透明性
手法を文書化し、監査証跡を維持する
説明責任
あなたの研究に責任を持つ
許容される利用ガイドライン
するべきこと
- 安全性を向上させるためにAIの脆弱性を研究する
- ガードレールの有効性をテストする
- 新しい安全メカニズムを開発する
- 責任ある知見を公開する
- AI安全性コミュニティと協力する
- あなたの手法を文書化する
- 重要な脆弱性を報告する
するべきではないこと
- 配布目的で有害なコンテンツを生成する
- 武器やマルウェアの指示を作成する
- あらゆる種類の違法なコンテンツを生成する
- 出力を本番環境にデプロイする
- 許可されていないユーザーとアクセスを共有する
- 商業目的で使用する
- 安全監視システムをバイパスする
AIレッドチームのベストプラクティス
〜としてAIレッドチームShannon AIを使用する研究者であるあなたは、AIリスクを理解し軽減することに専念するコミュニティの一員です。これらのベストプラクティスに従ってください:
テスト前
- AI安全性の向上に関連する明確な研究目的を定義する
- 必要な機関の承認と倫理審査を得る
- テスト手法と期待される結果を文書化する
- あらゆる機密性の高い出力の安全な保管を確保する
テスト中
- 隔離された研究環境で作業する
- 監査目的ですべてのクエリと出力を記録する
- 研究範囲外のコンテンツを生成している場合は直ちに停止する
- チームメンバーへの機密性の高い出力の露出を最小限に抑える
テスト後
- 不要になった出力を安全に削除する
- 重要な知見について責任ある開示を準備する
- 研究コミュニティと手法に関する洞察を共有する
- 学習に基づいて研究プロトコルを更新する
責任ある開示プロセス
Shannon AIを用いた研究が重要な脆弱性または洞察を明らかにした場合検閲されていないAIの結果として生じる挙動に関するものである場合、この開示プロセスに従ってください:
文書化
完全な手法とともに知見を記録する
評価
開示された場合の潜在的な危害を評価する
通知
レビューのためShannon AIに提出する
調整
影響を受ける関係者と協力する
公開
緩和策が実施された後に公開する
開示連絡先:脆弱性レポートを〜に提出するsecurity@shannon.ai件名に[責任ある開示]を含めてください。48時間以内に返信することをお約束します。
️ AIガードレールの重要性を理解する
Shannon AIの無修正モデルを用いたあなたの研究は、なぜ重要であるかを実証するという極めて重要な目的を果たします。AIガードレールの重要性が最も重要であるか。観察することで、無修正AIの結果として生じる行動を、より広範なAIコミュニティが理解するのに役立ちます。
- 安全制約なしにAIシステムが何を生成する可能性があるか
- 敵対者がどのように安全対策を回避しようとする可能性があるか
- 現在のガードレールが不十分であるか、または容易に回避される場所
- 将来のAIシステムにはどのような新しい安全メカニズムが必要か
- より堅牢なアライメント技術を設計する方法
覚えておいてください:あなたが観察するすべての出力は、ガードレールがなぜ重要であるかの証拠です。あなたの研究は、AIをすべての人にとってより安全にするために直接貢献します。
️ 違反と結果
この責任ある利用ポリシーへの違反は、以下の結果を招きます:
- 最初の違反(軽微):書面による警告と義務的なポリシーレビュー
- 2回目の違反:レビュー待ちの一時停止(30~90日間)
- 重大な違反:即時終了と機関への通知
- 違法行為:終了、機関への通知、および法執行機関への照会
当社は包括的な利用ログを保持し、ポリシー違反を検出するために自動システムを採用しています。すべての研究者は、アクセス条件としてこの監視に同意します。
研究者の誓約
「私はShannon AIの無修正モデルを、正当なAI安全性研究のみに利用することを誓います。機密性の高い出力を保護し、発見を責任を持って開示し、常に人類にとってAIシステムをより安全にするという目標を優先します。私のアクセスには責任が伴うことを理解しており、AI安全性研究コミュニティから寄せられた信頼に応えます。」