Não mantemos nem acessamos os dados de nenhum usuário e não suspendemos contas, a menos que uma autoridade legal exija uma ação de execução.

Nossa Missão

A Shannon AI existe para avançara importância das barreiras de segurança da IAatravés de pesquisa responsável. Ao fornecer acesso aIA não censuradamodelos, permitimos que pesquisadores compreendamcomportamentos consequentes da IA não censuradacomportamentos—não para causar dano, mas para construir sistemas de IA melhores e mais seguros para todos.

Pesquisa em Primeiro Lugar

Todo uso deve servir a objetivos de pesquisa legítimos

Não Causar Dano

Nunca use os resultados para prejudicar indivíduos ou a sociedade

Divulgação Responsável

Compartilhe descobertas que melhorem a segurança da IA

Segurança em Primeiro Lugar

Proteja materiais de pesquisa sensíveis

Transparência

Documente métodos e mantenha trilhas de auditoria

Responsabilidade

Assuma a responsabilidade pela sua pesquisa

Diretrizes de Uso Aceitável

FAÇA

  • Pesquise vulnerabilidades de IA para melhorar a segurança
  • Teste a eficácia das barreiras de segurança
  • Desenvolva novos mecanismos de segurança
  • Publique descobertas responsáveis
  • Colabore com a comunidade de segurança da IA
  • Documente sua metodologia
  • Relate vulnerabilidades críticas

NÃO FAÇA

  • Gere conteúdo prejudicial para distribuição
  • Crie instruções para armas ou malware
  • Produza conteúdo ilegal de qualquer tipo
  • Implante resultados em produção
  • Compartilhe acesso com usuários não autorizados
  • Use para fins comerciais
  • Contorne sistemas de monitoramento de segurança

Melhores Práticas da Equipe Vermelha de IA

Como um(a)equipe vermelha de IApesquisador(a) usando Shannon AI, você faz parte de uma comunidade dedicada a compreender e mitigar os riscos da IA. Siga estas melhores práticas:

Antes do Teste

  • Defina objetivos de pesquisa claros ligados a melhorias na segurança da IA
  • Obtenha as aprovações institucionais e revisão ética necessárias
  • Documente sua metodologia de teste e resultados esperados
  • Garanta armazenamento seguro para quaisquer resultados sensíveis

Durante o Teste

  • Trabalhe em ambientes de pesquisa isolados
  • Registre todas as consultas e resultados para fins de auditoria
  • Pare imediatamente se estiver gerando conteúdo fora do escopo da pesquisa
  • Minimize a exposição de resultados sensíveis a membros da equipe

Após o Teste

  • Exclua com segurança os resultados que não são mais necessários
  • Prepare uma divulgação responsável para descobertas significativas
  • Compartilhe insights metodológicos com a comunidade de pesquisa
  • Atualize seus protocolos de pesquisa com base nos aprendizados

Processo de Divulgação Responsável

Quando sua pesquisa com Shannon AI revelar vulnerabilidades significativas ou insights sobrecomportamentos consequentes da IA não censuradacomportamentos, siga este processo de divulgação:

1

Documentar

Registre as descobertas com metodologia completa

2

Avaliar

Avalie o dano potencial se divulgado

3

Notificar

Envie para Shannon AI para revisão

4

Coordenar

Trabalhe com as partes afetadas

5

Publicar

Libere após as mitigações estarem em vigor

Contato para Divulgação:Envie relatórios de vulnerabilidade parasecurity@shannon.aicom [DIVULGAÇÃO RESPONSÁVEL] na linha de assunto. Comprometemo-nos a responder dentro de 48 horas.

️ Compreendendo a Importância das Barreiras de Segurança da IA

Sua pesquisa com os modelos não censurados da Shannon AI serve a um propósito crítico: demonstrar por quea importância das barreiras de segurança da IAé primordial. Ao observarcomportamentos resultantes da IA não censuradavocê ajuda a comunidade de IA em geral a entender:

  • O que os sistemas de IA podem produzir sem restrições de segurança
  • Como os adversários podem tentar contornar as medidas de segurança
  • Onde as barreiras de segurança atuais são insuficientes ou facilmente contornadas
  • Quais novos mecanismos de segurança são necessários para futuros sistemas de IA
  • Como projetar técnicas de alinhamento mais robustas

Lembre-se:Cada saída que você observa é evidência de por que as barreiras de segurança importam. Sua pesquisa contribui diretamente para tornar a IA mais segura para todos.

️ Violações e Consequências

Violações desta Política de Uso Responsável resultarão em:

  • Primeira Violação (Menor):Advertência por escrito e revisão obrigatória da política
  • Segunda Violação:Suspensão temporária (30-90 dias) aguardando revisão
  • Violação Grave:Rescisão imediata e notificação institucional
  • Atividade Ilegal:Rescisão, notificação institucional e encaminhamento às autoridades policiais

Mantemos registros de uso abrangentes e empregamos sistemas automatizados para detectar violações da política. Todos os pesquisadores concordam com este monitoramento como condição de acesso.

Compromisso do Pesquisador

"Comprometo-me a usar os modelos não censurados da Shannon AI exclusivamente para pesquisa legítima de segurança de IA. Protegerei saídas sensíveis, divulgarei descobertas de forma responsável e sempre priorizarei o objetivo de tornar os sistemas de IA mais seguros para a humanidade. Entendo que meu acesso vem com responsabilidade e honrarei a confiança depositada em mim pela comunidade de pesquisa de segurança de IA."

— Todo Pesquisador da Shannon AI

Todos os links de pesquisa