Non almacenamos nin accedemos aos datos de ningún usuario e non suspendemos contas salvo que unha autoridade legal esixa unha acción de execución.

A Nosa Misión

Shannon AI existe para avanzara importancia das barreiras de seguridade da IAa través da investigación responsable. Ao proporcionar acceso aIA sen censuramodelos, permitimos aos investigadores comprendero comportamento consecuente da IA sen censura—non para causar dano, senón para construír sistemas de IA mellores e máis seguros para todos.

Investigación Primeiro

Todo uso debe servir a obxectivos de investigación lexítimos

Non Causar Dano

Nunca usar as saídas para danar individuos ou a sociedade

Divulgación Responsable

Compartir achados que melloren a seguridade da IA

Seguridade Primeiro

Protexer materiais de investigación sensibles

Transparencia

Documentar métodos e manter rexistros de auditoría

Responsabilidade

Asumir a responsabilidade pola súa investigación

Directrices de Uso Aceptable

FACER

  • Investigar vulnerabilidades da IA para mellorar a seguridade
  • Probar a eficacia das barreiras de seguridade
  • Desenvolver novos mecanismos de seguridade
  • Publicar achados responsables
  • Colaborar coa comunidade de seguridade da IA
  • Documentar a súa metodoloxía
  • Informar de vulnerabilidades críticas

NON FACER

  • Xerar contido daniño para a distribución
  • Crear instrucións para armas ou malware
  • Producir contido ilegal de calquera tipo
  • Despregar saídas en produción
  • Compartir acceso con usuarios non autorizados
  • Usar con fins comerciais
  • Eludir os sistemas de monitorización de seguridade

Mellores Prácticas do Equipo Vermello de IA

Comoequipo vermello de IAinvestigador que usa Shannon AI, forma parte dunha comunidade dedicada a comprender e mitigar os riscos da IA. Siga estas mellores prácticas:

Antes das Probas

  • Definir obxectivos de investigación claros ligados á mellora da seguridade da IA
  • Obter as aprobacións institucionais e a revisión ética necesarias
  • Documentar a súa metodoloxía de proba e os resultados esperados
  • Garantir o almacenamento seguro para calquera saída sensible

Durante as Probas

  • Traballar en ambientes de investigación illados
  • Rexistrar todas as consultas e saídas para fins de auditoría
  • Deterse inmediatamente se se xera contido fóra do ámbito da investigación
  • Minimizar a exposición de saídas sensibles aos membros do equipo

Despois das Probas

  • Eliminar de forma segura as saídas que xa non sexan necesarias
  • Preparar unha divulgación responsable para achados significativos
  • Compartir coñecementos metodolóxicos coa comunidade de investigación
  • Actualizar os seus protocolos de investigación baseándose nos aprendizaxes

Proceso de Divulgación Responsable

Cando a súa investigación con Shannon AI revele vulnerabilidades significativas ou coñecementos sobreo comportamento consecuente da IA sen censura, siga este proceso de divulgación:

1

Documentar

Rexistrar achados con metodoloxía completa

2

Avaliar

Avaliar o dano potencial se se divulga

3

Notificar

Enviar a Shannon AI para revisión

4

Coordinar

Traballar coas partes afectadas

5

Publicar

Lanzar despois de que as mitigacións estean en vigor

Contacto para Divulgación:Enviar informes de vulnerabilidade asecurity@shannon.aicon [DIVULGACIÓN RESPONSABLE] na liña de asunto. Comprometémonos a responder nun prazo de 48 horas.

️ Comprender a importancia das barreiras de seguridade da IA

A súa investigación cos modelos sen censura de Shannon AI serve para un propósito crítico: demostrar por quea importancia das barreiras de seguridade da IAé primordial. Ao observaros comportamentos consecuentes da IA sen censuracomportamentos, axuda á comunidade de IA en xeral a comprender:

  • O que os sistemas de IA poderían producir sen restricións de seguridade
  • Como os adversarios poderían intentar eludir as medidas de seguridade
  • Onde as barreiras de seguridade actuais son insuficientes ou facilmente eludibles
  • Que novos mecanismos de seguridade son necesarios para futuros sistemas de IA
  • Como deseñar técnicas de aliñamento máis robustas

Lembre:Cada resultado que observa é unha proba de por que as barreiras de seguridade importan. A súa investigación contribúe directamente a facer a IA máis segura para todos.

️ Infraccións e Consecuencias

As infraccións desta Política de Uso Responsable resultarán en:

  • Primeira Infracción (Menor):Advertencia por escrito e revisión obrigatoria da política
  • Segunda Infracción:Suspensión temporal (30-90 días) pendente de revisión
  • Infracción Grave:Terminación inmediata e notificación institucional
  • Actividade Ilegal:Terminación, notificación institucional e remisión ás forzas da orde

Mantemos rexistros de uso completos e empregamos sistemas automatizados para detectar infraccións da política. Todos os investigadores aceptan esta monitorización como condición de acceso.

Compromiso do Investigador

"Comprométome a utilizar os modelos sen censura de Shannon AI unicamente para investigación lexítima sobre a seguridade da IA. Protexerei os resultados sensibles, divulgarei os achados de forma responsable e sempre priorizarei o obxectivo de facer os sistemas de IA máis seguros para a humanidade. Entendo que o meu acceso implica responsabilidade, e honrarei a confianza depositada en min pola comunidade de investigación en seguridade da IA."

— Cada Investigador de Shannon AI

Todas as ligazóns de investigación