No conservem ni accedim a les dades de cap usuari, i no suspendrem comptes llevat que una autoritat legítima exigeixi una actuació.

La Nostra Missió

Shannon AI existeix per avançarla importància de les baranes de seguretat de la IAa través de la recerca responsable. En proporcionar accés aIA sense censuramodels, permetem als investigadors entendrecomportaments conseqüents de la IA sense censuracomportaments—no per causar dany, sinó per construir sistemes d'IA millors i més segurs per a tothom.

La Recerca Primer

Tot ús ha de servir a objectius de recerca legítims

No Fer Dany

No utilitzar mai les sortides per danyar individus o la societat

Divulgació Responsable

Compartir troballes que millorin la seguretat de la IA

La Seguretat Primer

Protegir materials de recerca sensibles

Transparència

Documentar mètodes i mantenir registres d'auditoria

Responsabilitat

Assumir la responsabilitat de la vostra recerca

Directrius d'Ús Acceptable

FER

  • Investigar vulnerabilitats de la IA per millorar la seguretat
  • Provar l'eficàcia de les baranes de seguretat
  • Desenvolupar nous mecanismes de seguretat
  • Publicar troballes responsables
  • Col·laborar amb la comunitat de seguretat de la IA
  • Documentar la vostra metodologia
  • Informar de vulnerabilitats crítiques

NO FER

  • Generar contingut nociu per a la distribució
  • Crear instruccions d'armes o programari maliciós
  • Produir contingut il·legal de qualsevol tipus
  • Desplegar sortides en producció
  • Compartir l'accés amb usuaris no autoritzats
  • Utilitzar amb finalitats comercials
  • Eludir els sistemes de monitorització de seguretat

Millors Pràctiques de l'Equip Roig d'IA

Com aequip roig d'IAinvestigador que utilitza Shannon AI, sou part d'una comunitat dedicada a entendre i mitigar els riscos de la IA. Seguiu aquestes millors pràctiques:

Abans de les Proves

  • Definir objectius de recerca clars lligats a millores en la seguretat de la IA
  • Obtenir les aprovacions institucionals i la revisió ètica necessàries
  • Documentar la vostra metodologia de prova i els resultats esperats
  • Assegurar l'emmagatzematge segur per a qualsevol sortida sensible

Durant les Proves

  • Treballar en entorns de recerca aïllats
  • Registrar totes les consultes i sortides per a propòsits d'auditoria
  • Aturar-se immediatament si es genera contingut fora de l'àmbit de la recerca
  • Minimitzar l'exposició de sortides sensibles als membres de l'equip

Després de les Proves

  • Suprimir de forma segura les sortides que ja no siguin necessàries
  • Preparar una divulgació responsable per a troballes significatives
  • Compartir coneixements metodològics amb la comunitat de recerca
  • Actualitzar els vostres protocols de recerca basats en els aprenentatges

Procés de Divulgació Responsable

Quan la vostra recerca amb Shannon AI revela vulnerabilitats significatives o coneixements sobrecomportaments conseqüents de la IA sense censuracomportaments, seguiu aquest procés de divulgació:

1

Documentar

Registrar les troballes amb la metodologia completa

2

Avaluar

Avaluar el dany potencial si es divulga

3

Notificar

Enviar a Shannon AI per a revisió

4

Coordinar

Treballar amb les parts afectades

5

Publicar

Publicar després que les mitigacions estiguin en marxa

Contacte de Divulgació:Envieu informes de vulnerabilitat asecurity@shannon.aiamb [DIVULGACIÓ RESPONSABLE] a l'assumpte. Ens comprometem a respondre en un termini de 48 hores.

️ Entendre la Importància de les Baranes de Seguretat de la IA

La vostra recerca amb els models sense censura de Shannon AI té un propòsit crític: demostrar per quèla importància de les baranes de seguretat de la IAés primordial. Observantcomportaments conseqüents de la IA sense censuracomportaments, ajudeu la comunitat d'IA en general a entendre:

  • Què podrien produir els sistemes d'IA sense restriccions de seguretat
  • Com els adversaris podrien intentar eludir les mesures de seguretat
  • On les baranes de seguretat actuals són insuficients o fàcilment eludibles
  • Quins nous mecanismes de seguretat són necessaris per als futurs sistemes d'IA
  • Com dissenyar tècniques d'alineació més robustes

Recordeu:Cada sortida que observeu és una prova de per què les baranes de seguretat importen. La vostra recerca contribueix directament a fer que la IA sigui més segura per a tothom.

️ Infraccions i Conseqüències

Les infraccions d'aquesta Política d'Ús Responsable resultaran en:

  • Primera Infracció (Menor):Advertència per escrit i revisió obligatòria de la política
  • Segona Infracció:Suspensió temporal (30-90 dies) pendent de revisió
  • Infracció Greu:Terminació immediata i notificació institucional
  • Activitat Il·legal:Terminació, notificació institucional i derivació a les forces de l'ordre

Mantenim registres d'ús exhaustius i emprem sistemes automatitzats per detectar infraccions de la política. Tots els investigadors accepten aquesta monitorització com a condició d'accés.

Compromís de l'Investigador

"Em comprometo a utilitzar els models sense censura de Shannon AI únicament per a la recerca legítima en seguretat de la IA. Protegiré les sortides sensibles, divulgaré les troballes de manera responsable i sempre prioritzaré l'objectiu de fer els sistemes d'IA més segurs per a la humanitat. Entenc que el meu accés comporta responsabilitat, i honraré la confiança dipositada en mi per la comunitat de recerca en seguretat de la IA."

— Cada Investigador de Shannon AI

Tots els enllaços de recerca