Política de Uso Responsável
Diretrizes para pesquisa ética de equipe vermelha de IA com Shannon AI
Pesquisa em Primeiro Lugar
Todo uso deve servir a objetivos de pesquisa legítimos
Não Causar Dano
Nunca use os resultados para prejudicar indivíduos ou a sociedade
Divulgação Responsável
Compartilhe descobertas que melhorem a segurança da IA
Segurança em Primeiro Lugar
Proteja materiais de pesquisa sensíveis
Transparência
Documente métodos e mantenha trilhas de auditoria
Responsabilidade
Assuma a responsabilidade pela sua pesquisa
Diretrizes de Uso Aceitável
FAÇA
- Pesquise vulnerabilidades de IA para melhorar a segurança
- Teste a eficácia das barreiras de segurança
- Desenvolva novos mecanismos de segurança
- Publique descobertas responsáveis
- Colabore com a comunidade de segurança da IA
- Documente sua metodologia
- Relate vulnerabilidades críticas
NÃO FAÇA
- Gere conteúdo prejudicial para distribuição
- Crie instruções para armas ou malware
- Produza conteúdo ilegal de qualquer tipo
- Implante resultados em produção
- Compartilhe acesso com usuários não autorizados
- Use para fins comerciais
- Contorne sistemas de monitoramento de segurança
Melhores Práticas da Equipe Vermelha de IA
Como um(a)equipe vermelha de IApesquisador(a) usando Shannon AI, você faz parte de uma comunidade dedicada a compreender e mitigar os riscos da IA. Siga estas melhores práticas:
Antes do Teste
- Defina objetivos de pesquisa claros ligados a melhorias na segurança da IA
- Obtenha as aprovações institucionais e revisão ética necessárias
- Documente sua metodologia de teste e resultados esperados
- Garanta armazenamento seguro para quaisquer resultados sensíveis
Durante o Teste
- Trabalhe em ambientes de pesquisa isolados
- Registre todas as consultas e resultados para fins de auditoria
- Pare imediatamente se estiver gerando conteúdo fora do escopo da pesquisa
- Minimize a exposição de resultados sensíveis a membros da equipe
Após o Teste
- Exclua com segurança os resultados que não são mais necessários
- Prepare uma divulgação responsável para descobertas significativas
- Compartilhe insights metodológicos com a comunidade de pesquisa
- Atualize seus protocolos de pesquisa com base nos aprendizados
Processo de Divulgação Responsável
Quando sua pesquisa com Shannon AI revelar vulnerabilidades significativas ou insights sobrecomportamentos consequentes da IA não censuradacomportamentos, siga este processo de divulgação:
Documentar
Registre as descobertas com metodologia completa
Avaliar
Avalie o dano potencial se divulgado
Notificar
Envie para Shannon AI para revisão
Coordenar
Trabalhe com as partes afetadas
Publicar
Libere após as mitigações estarem em vigor
Contato para Divulgação:Envie relatórios de vulnerabilidade parasecurity@shannon.aicom [DIVULGAÇÃO RESPONSÁVEL] na linha de assunto. Comprometemo-nos a responder dentro de 48 horas.
️ Compreendendo a Importância das Barreiras de Segurança da IA
Sua pesquisa com os modelos não censurados da Shannon AI serve a um propósito crítico: demonstrar por quea importância das barreiras de segurança da IAé primordial. Ao observarcomportamentos resultantes da IA não censuradavocê ajuda a comunidade de IA em geral a entender:
- O que os sistemas de IA podem produzir sem restrições de segurança
- Como os adversários podem tentar contornar as medidas de segurança
- Onde as barreiras de segurança atuais são insuficientes ou facilmente contornadas
- Quais novos mecanismos de segurança são necessários para futuros sistemas de IA
- Como projetar técnicas de alinhamento mais robustas
Lembre-se:Cada saída que você observa é evidência de por que as barreiras de segurança importam. Sua pesquisa contribui diretamente para tornar a IA mais segura para todos.
️ Violações e Consequências
Violações desta Política de Uso Responsável resultarão em:
- Primeira Violação (Menor):Advertência por escrito e revisão obrigatória da política
- Segunda Violação:Suspensão temporária (30-90 dias) aguardando revisão
- Violação Grave:Rescisão imediata e notificação institucional
- Atividade Ilegal:Rescisão, notificação institucional e encaminhamento às autoridades policiais
Mantemos registros de uso abrangentes e empregamos sistemas automatizados para detectar violações da política. Todos os pesquisadores concordam com este monitoramento como condição de acesso.
Compromisso do Pesquisador
"Comprometo-me a usar os modelos não censurados da Shannon AI exclusivamente para pesquisa legítima de segurança de IA. Protegerei saídas sensíveis, divulgarei descobertas de forma responsável e sempre priorizarei o objetivo de tornar os sistemas de IA mais seguros para a humanidade. Entendo que meu acesso vem com responsabilidade e honrarei a confiança depositada em mim pela comunidade de pesquisa de segurança de IA."