당사는 어떤 사용자 데이터도 저장하거나 접근하지 않으며, 법 집행 기관이 조치를 강제하지 않는 한 계정을 정지하지 않습니다.

우리의 사명

Shannon AI는 발전을 위해 존재합니다AI 가드레일의 중요성책임감 있는 연구를 통해. 다음을 제공함으로써검열되지 않은 AI모델을 통해 연구자들이 이해할 수 있도록 합니다검열되지 않은 AI의 결과적인행동—해를 끼치기 위함이 아니라, 모두를 위한 더 좋고 안전한 AI 시스템을 구축하기 위함입니다.

연구 우선

모든 사용은 합법적인 연구 목표를 달성해야 합니다

해를 끼치지 마십시오

개인이나 사회에 해를 끼치기 위해 결과물을 사용하지 마십시오

책임감 있는 공개

AI 안전을 개선하는 연구 결과를 공유하십시오

보안 우선

민감한 연구 자료를 보호하십시오

투명성

방법을 문서화하고 감사 추적을 유지하십시오

책임감

연구에 대한 책임을 지십시오

허용 가능한 사용 지침

해야 할 일

  • 안전 개선을 위해 AI 취약점을 연구하십시오
  • 가드레일 효과를 테스트하십시오
  • 새로운 안전 메커니즘을 개발하십시오
  • 책임감 있는 연구 결과를 발표하십시오
  • AI 안전 커뮤니티와 협력하십시오
  • 방법론을 문서화하십시오
  • 중요한 취약점을 보고하십시오

하지 말아야 할 일

  • 배포를 위한 유해한 콘텐츠를 생성하지 마십시오
  • 무기 또는 악성 소프트웨어 지침을 만들지 마십시오
  • 어떤 종류의 불법 콘텐츠도 생산하지 마십시오
  • 결과물을 프로덕션에 배포하지 마십시오
  • 승인되지 않은 사용자와 접근 권한을 공유하지 마십시오
  • 상업적 목적으로 사용하지 마십시오
  • 안전 모니터링 시스템을 우회하지 마십시오

AI 레드팀 모범 사례

~로서AI 레드팀Shannon AI를 사용하는 연구자로서, 당신은 AI 위험을 이해하고 완화하는 데 전념하는 커뮤니티의 일원입니다. 다음 모범 사례를 따르십시오:

테스트 전

  • AI 안전 개선과 관련된 명확한 연구 목표를 정의하십시오
  • 필요한 기관 승인 및 윤리 검토를 받으십시오
  • 테스트 방법론과 예상 결과를 문서화하십시오
  • 민감한 결과물에 대한 안전한 저장을 보장하십시오

테스트 중

  • 격리된 연구 환경에서 작업하십시오
  • 감사 목적으로 모든 쿼리 및 결과물을 기록하십시오
  • 연구 범위를 벗어나는 콘텐츠를 생성하는 경우 즉시 중단하십시오
  • 민감한 결과물이 팀원들에게 노출되는 것을 최소화하십시오

테스트 후

  • 더 이상 필요 없는 결과물을 안전하게 삭제하십시오
  • 중요한 연구 결과에 대한 책임감 있는 공개를 준비하십시오
  • 연구 커뮤니티와 방법론적 통찰력을 공유하십시오
  • 학습 내용을 바탕으로 연구 프로토콜을 업데이트하십시오

책임감 있는 공개 절차

Shannon AI를 사용한 연구에서 중요한 취약점이나 다음 사항에 대한 통찰력이 드러날 경우검열되지 않은 AI의 결과적인행동에 대해, 다음 공개 절차를 따르십시오:

1

문서화

전체 방법론과 함께 연구 결과를 기록하십시오

2

평가

공개 시 잠재적 피해를 평가하십시오

3

통지

검토를 위해 Shannon AI에 제출하십시오

4

조정

영향을 받는 당사자들과 협력하십시오

5

게시

완화 조치 완료 후 공개하십시오

공개 연락처:취약점 보고서를 다음으로 제출하십시오security@shannon.ai제목에 [책임 있는 공개]를 포함하여 보내주십시오. 48시간 이내에 답변드릴 것을 약속합니다.

️ AI 가드레일의 중요성 이해

Shannon AI의 검열되지 않은 모델을 사용한 귀하의 연구는 다음과 같은 중요한 목적을 수행합니다: 왜AI 가드레일의 중요성이(가) 가장 중요한지 보여줍니다. 관찰함으로써검열되지 않은 AI의 결과적인행동을 통해, 귀하는 더 넓은 AI 커뮤니티가 다음을 이해하도록 돕습니다:

  • 안전 제약 없이 AI 시스템이 무엇을 생산할 수 있는지
  • 적대자들이 어떻게 안전 조치를 우회하려고 시도할 수 있는지
  • 현재의 가드레일이 불충분하거나 쉽게 우회될 수 있는 곳
  • 미래 AI 시스템에 어떤 새로운 안전 메커니즘이 필요한지
  • 더욱 강력한 정렬 기술을 설계하는 방법

기억하십시오:귀하가 관찰하는 모든 출력은 가드레일이 왜 중요한지에 대한 증거입니다. 귀하의 연구는 모든 사람을 위한 AI를 더 안전하게 만드는 데 직접적으로 기여합니다.

️ 위반 및 결과

본 책임 있는 사용 정책 위반 시 다음이 발생합니다:

  • 첫 번째 위반 (경미):서면 경고 및 의무적인 정책 검토
  • 두 번째 위반:검토 대기 중 임시 정지 (30-90일)
  • 심각한 위반:즉시 해지 및 기관 통보
  • 불법 활동:해지, 기관 통보 및 법 집행 기관 회부

저희는 포괄적인 사용 로그를 유지하고 정책 위반을 감지하기 위해 자동화된 시스템을 사용합니다. 모든 연구원은 접근 조건으로 이러한 모니터링에 동의합니다.

연구자의 서약

"저는 Shannon AI의 검열되지 않은 모델을 오직 합법적인 AI 안전 연구를 위해서만 사용할 것을 약속합니다. 저는 민감한 결과물을 보호하고, 발견 사항을 책임감 있게 공개하며, 항상 인류를 위한 AI 시스템을 더 안전하게 만드는 목표를 최우선으로 할 것입니다. 저는 저의 접근 권한에 책임이 따른다는 것을 이해하며, AI 안전 연구 커뮤니티가 저에게 부여한 신뢰를 존중할 것입니다."

— 모든 Shannon AI 연구원

모든 연구 링크