No conservamos ni accedemos a datos de ningún usuario y no suspendemos cuentas salvo que una autoridad legítima exija una medida de ejecución.

Nuestra Misión

Shannon AI existe para avanzarla importancia de las barreras de seguridad de la IAa través de la investigación responsable. Al proporcionar acceso aIA sin censuramodelos, permitimos a los investigadores comprendercomportamientos consecuentes de la IA sin censuracomportamientos—no para causar daño, sino para construir sistemas de IA mejores y más seguros para todos.

Investigación Primero

Todo uso debe servir a objetivos de investigación legítimos

No Hacer Daño

Nunca uses los resultados para dañar a individuos o a la sociedad

Divulgación Responsable

Comparte hallazgos que mejoren la seguridad de la IA

Seguridad Primero

Protege los materiales de investigación sensibles

Transparencia

Documenta los métodos y mantén registros de auditoría

Rendición de Cuentas

Asume la responsabilidad de tu investigación

Directrices de Uso Aceptable

HACER

  • Investigar vulnerabilidades de la IA para mejorar la seguridad
  • Probar la efectividad de las barreras de seguridad
  • Desarrollar nuevos mecanismos de seguridad
  • Publicar hallazgos responsables
  • Colaborar con la comunidad de seguridad de la IA
  • Documentar tu metodología
  • Reportar vulnerabilidades críticas

NO HACER

  • Generar contenido dañino para su distribución
  • Crear instrucciones para armas o malware
  • Producir contenido ilegal de cualquier tipo
  • Desplegar resultados en producción
  • Compartir acceso con usuarios no autorizados
  • Usar con fines comerciales
  • Eludir los sistemas de monitoreo de seguridad

Mejores Prácticas del Equipo Rojo de IA

Comoequipo rojo de IAinvestigador que utiliza Shannon AI, eres parte de una comunidad dedicada a comprender y mitigar los riesgos de la IA. Sigue estas mejores prácticas:

Antes de la Prueba

  • Define objetivos de investigación claros vinculados a mejoras en la seguridad de la IA
  • Obtén las aprobaciones institucionales y la revisión ética necesarias
  • Documenta tu metodología de prueba y los resultados esperados
  • Asegura el almacenamiento seguro de cualquier resultado sensible

Durante la Prueba

  • Trabaja en entornos de investigación aislados
  • Registra todas las consultas y resultados para fines de auditoría
  • Detente inmediatamente si generas contenido fuera del alcance de la investigación
  • Minimiza la exposición de resultados sensibles a los miembros del equipo

Después de la Prueba

  • Elimina de forma segura los resultados que ya no sean necesarios
  • Prepara una divulgación responsable para hallazgos significativos
  • Comparte conocimientos metodológicos con la comunidad de investigación
  • Actualiza tus protocolos de investigación basándote en los aprendizajes

Proceso de Divulgación Responsable

Cuando tu investigación con Shannon AI revele vulnerabilidades significativas o conocimientos sobrecomportamientos consecuentes de la IA sin censuracomportamientos, sigue este proceso de divulgación:

1

Documentar

Registra los hallazgos con la metodología completa

2

Evaluar

Evalúa el daño potencial si se divulga

3

Notificar

Envía a Shannon AI para su revisión

4

Coordinar

Trabaja con las partes afectadas

5

Publicar

Publica después de que las mitigaciones estén implementadas

Contacto de Divulgación:Envía informes de vulnerabilidad asecurity@shannon.aicon [DIVULGACIÓN RESPONSABLE] en la línea de asunto. Nos comprometemos a responder en un plazo de 48 horas.

️ Comprendiendo la Importancia de las Barandillas de Seguridad de la IA

Su investigación con los modelos sin censura de Shannon AI tiene un propósito crítico: demostrar por quéla importancia de las barandillas de seguridad de la IAes primordial. Al observarel comportamiento consecuente de la IA sin censurausted ayuda a la comunidad de IA en general a comprender:

  • Qué podrían producir los sistemas de IA sin restricciones de seguridad
  • Cómo los adversarios podrían intentar eludir las medidas de seguridad
  • Dónde las barandillas de seguridad actuales son insuficientes o fácilmente eludibles
  • Qué nuevos mecanismos de seguridad se necesitan para futuros sistemas de IA
  • Cómo diseñar técnicas de alineación más robustas

Recuerde:Cada resultado que observe es evidencia de por qué las barandillas de seguridad importan. Su investigación contribuye directamente a hacer que la IA sea más segura para todos.

️ Violaciones y Consecuencias

Las violaciones de esta Política de Uso Responsable resultarán en:

  • Primera Violación (Menor):Advertencia por escrito y revisión obligatoria de la política
  • Segunda Violación:Suspensión temporal (30-90 días) pendiente de revisión
  • Violación Grave:Terminación inmediata y notificación institucional
  • Actividad Ilegal:Terminación, notificación institucional y remisión a las fuerzas del orden

Mantenemos registros de uso exhaustivos y empleamos sistemas automatizados para detectar violaciones de la política. Todos los investigadores aceptan este monitoreo como condición de acceso.

Compromiso del Investigador

"Me comprometo a utilizar los modelos sin censura de Shannon AI únicamente para la investigación legítima de seguridad de la IA. Protegeré los resultados sensibles, divulgaré los hallazgos de manera responsable y siempre priorizaré el objetivo de hacer que los sistemas de IA sean más seguros para la humanidad. Entiendo que mi acceso conlleva responsabilidad, y honraré la confianza depositada en mí por la comunidad de investigación de seguridad de la IA."

— Todo Investigador de Shannon AI

Todos los enlaces de investigación