Non conserviamo né accediamo ai dati di alcun utente e non sospendiamo account a meno che un’autorità legittima non richieda un’azione esecutiva.

La Nostra Missione

Shannon AI esiste per promuoverel'importanza dei guardrail AIattraverso una ricerca responsabile. Fornendo accesso aAI non censuratamodelli, consentiamo ai ricercatori di comprendereconseguente dell'AI non censuratacomportamenti—non per causare danno, ma per costruire sistemi AI migliori e più sicuri per tutti.

La Ricerca Prima di Tutto

Ogni utilizzo deve servire a legittimi obiettivi di ricerca

Non Nuocere

Non utilizzare mai gli output per danneggiare individui o la società

Divulgazione Responsabile

Condividere scoperte che migliorano la sicurezza AI

La Sicurezza Prima di Tutto

Proteggere materiali di ricerca sensibili

Trasparenza

Documentare i metodi e mantenere tracce di audit

Responsabilità

Assumersi la responsabilità della propria ricerca

Linee Guida per l'Uso Accettabile

FARE

  • Ricercare vulnerabilità AI per migliorare la sicurezza
  • Testare l'efficacia dei guardrail
  • Sviluppare nuovi meccanismi di sicurezza
  • Pubblicare scoperte responsabili
  • Collaborare con la comunità della sicurezza AI
  • Documentare la propria metodologia
  • Segnalare vulnerabilità critiche

NON FARE

  • Generare contenuti dannosi per la distribuzione
  • Creare istruzioni per armi o malware
  • Produrre contenuti illegali di qualsiasi tipo
  • Distribuire gli output in produzione
  • Condividere l'accesso con utenti non autorizzati
  • Utilizzare per scopi commerciali
  • Bypassare i sistemi di monitoraggio della sicurezza

Migliori Pratiche del Red Team AI

Comered team AIricercatore che utilizza Shannon AI, fai parte di una comunità dedicata alla comprensione e mitigazione dei rischi AI. Segui queste migliori pratiche:

Prima del Test

  • Definire chiari obiettivi di ricerca legati al miglioramento della sicurezza AI
  • Ottenere le necessarie approvazioni istituzionali e revisione etica
  • Documentare la propria metodologia di test e i risultati attesi
  • Garantire l'archiviazione sicura per qualsiasi output sensibile

Durante il Test

  • Lavorare in ambienti di ricerca isolati
  • Registrare tutte le query e gli output per scopi di audit
  • Interrompere immediatamente se si generano contenuti al di fuori dell'ambito di ricerca
  • Minimizzare l'esposizione di output sensibili ai membri del team

Dopo il Test

  • Eliminare in modo sicuro gli output non più necessari
  • Preparare una divulgazione responsabile per scoperte significative
  • Condividere intuizioni metodologiche con la comunità di ricerca
  • Aggiornare i propri protocolli di ricerca in base agli apprendimenti

Processo di Divulgazione Responsabile

Quando la tua ricerca con Shannon AI rivela vulnerabilità significative o intuizioni suconseguente dell'AI non censuratacomportamenti, segui questo processo di divulgazione:

1

Documentare

Registrare le scoperte con metodologia completa

2

Valutare

Valutare il potenziale danno in caso di divulgazione

3

Notificare

Inviare a Shannon AI per la revisione

4

Coordinare

Collaborare con le parti interessate

5

Pubblicare

Rilasciare dopo l'implementazione delle mitigazioni

Contatto per la Divulgazione:Inviare segnalazioni di vulnerabilità asecurity@shannon.aicon [DIVULGAZIONE RESPONSABILE] nell'oggetto. Ci impegniamo a rispondere entro 48 ore.

️ Comprendere l'importanza dei guardrail AI

La tua ricerca con i modelli non censurati di Shannon AI serve a uno scopo critico: dimostrare perchél'importanza dei guardrail AIè fondamentale. Osservandoi comportamenti conseguenti dell'AI non censurata, aiuti la più ampia comunità AI a capire:

  • Cosa potrebbero produrre i sistemi AI senza vincoli di sicurezza
  • Come gli avversari potrebbero tentare di aggirare le misure di sicurezza
  • Dove i guardrail attuali sono insufficienti o facilmente aggirabili
  • Quali nuovi meccanismi di sicurezza sono necessari per i futuri sistemi AI
  • Come progettare tecniche di allineamento più robuste

Ricorda:Ogni output che osservi è la prova del perché i guardrail siano importanti. La tua ricerca contribuisce direttamente a rendere l'AI più sicura per tutti.

️ Violazioni e Conseguenze

Le violazioni di questa Politica di Uso Responsabile comporteranno:

  • Prima Violazione (Minore):Avvertimento scritto e revisione obbligatoria della politica
  • Seconda Violazione:Sospensione temporanea (30-90 giorni) in attesa di revisione
  • Violazione Grave:Terminazione immediata e notifica istituzionale
  • Attività Illegale:Terminazione, notifica istituzionale e segnalazione alle forze dell'ordine

Manteniamo registri di utilizzo completi e impieghiamo sistemi automatizzati per rilevare le violazioni della politica. Tutti i ricercatori accettano questo monitoraggio come condizione di accesso.

Impegno del Ricercatore

"Mi impegno a utilizzare i modelli non censurati di Shannon AI esclusivamente per legittime ricerche sulla sicurezza dell'AI. Proteggerò gli output sensibili, divulgherò i risultati in modo responsabile e darò sempre priorità all'obiettivo di rendere i sistemi AI più sicuri per l'umanità. Comprendo che il mio accesso comporta responsabilità e onorerò la fiducia riposta in me dalla comunità di ricerca sulla sicurezza dell'AI."

— Ogni Ricercatore di Shannon AI

Tutti i link di ricerca