Nu deținem și nu accesăm datele niciunui utilizator și nu suspendăm conturi decât dacă o autoritate legală impune o acțiune de executare.

Misiunea Noastră

Shannon AI există pentru a avansaimportanța mecanismelor de siguranță AIprin cercetare responsabilă. Oferind acces laAI necenzuratămodele, permitem cercetătorilor să înțeleagăcomportamentele rezultate ale AI necenzuratecomportamente—nu pentru a provoca rău, ci pentru a construi sisteme AI mai bune și mai sigure pentru toată lumea.

Cercetarea pe Primul Loc

Toată utilizarea trebuie să servească obiective legitime de cercetare

Nu Face Rău

Nu utilizați niciodată rezultatele pentru a dăuna indivizilor sau societății

Divulgare Responsabilă

Partajați descoperirile care îmbunătățesc siguranța AI

Securitatea pe Primul Loc

Protejați materialele sensibile de cercetare

Transparență

Documentați metodele și mențineți jurnalele de audit

Responsabilitate

Asumați-vă responsabilitatea pentru cercetarea dumneavoastră

Ghiduri de Utilizare Acceptabilă

FACEȚI

  • Cercetați vulnerabilitățile AI pentru a îmbunătăți siguranța
  • Testați eficacitatea mecanismelor de siguranță
  • Dezvoltați noi mecanisme de siguranță
  • Publicați descoperiri responsabile
  • Colaborați cu comunitatea de siguranță AI
  • Documentați-vă metodologia
  • Raportați vulnerabilități critice

NU FACEȚI

  • Generați conținut dăunător pentru distribuție
  • Creați instrucțiuni pentru arme sau malware
  • Produceți conținut ilegal de orice fel
  • Implementați rezultatele în producție
  • Partajați accesul cu utilizatori neautorizați
  • Utilizați în scopuri comerciale
  • Ocoliți sistemele de monitorizare a siguranței

Cele Mai Bune Practici ale Echipei Roșii AI

În calitate deechipă roșie AIcercetător care utilizează Shannon AI, faceți parte dintr-o comunitate dedicată înțelegerii și atenuării riscurilor AI. Urmați aceste bune practici:

Înainte de Testare

  • Definiți obiective clare de cercetare legate de îmbunătățirile siguranței AI
  • Obțineți aprobările instituționale necesare și revizuirea etică
  • Documentați-vă metodologia de testare și rezultatele așteptate
  • Asigurați stocarea securizată pentru orice rezultate sensibile

În Timpul Testării

  • Lucrați în medii de cercetare izolate
  • Înregistrați toate interogările și rezultatele în scopuri de audit
  • Opriți-vă imediat dacă generați conținut în afara scopului cercetării
  • Minimizați expunerea rezultatelor sensibile către membrii echipei

După Testare

  • Ștergeți în siguranță rezultatele care nu mai sunt necesare
  • Pregătiți o divulgare responsabilă pentru descoperirile semnificative
  • Partajați perspective metodologice cu comunitatea de cercetare
  • Actualizați-vă protocoalele de cercetare pe baza învățăturilor

Procesul de Divulgare Responsabilă

Când cercetarea dumneavoastră cu Shannon AI dezvăluie vulnerabilități semnificative sau perspective asupracomportamentelor rezultate ale AI necenzuratecomportamentelor, urmați acest proces de divulgare:

1

Documentați

Înregistrați descoperirile cu metodologia completă

2

Evaluați

Evaluați potențialul rău dacă este divulgat

3

Notificați

Trimiteți către Shannon AI pentru revizuire

4

Coordonați

Lucrați cu părțile afectate

5

Publicați

Lansați după implementarea măsurilor de atenuare

Contact pentru Divulgare:Trimiteți rapoarte de vulnerabilitate cătresecurity@shannon.aicu [DEZVĂLUIRE RESPONSABILĂ] în linia de subiect. Ne angajăm să răspundem în termen de 48 de ore.

️ Înțelegerea importanței balustradelor AI

Cercetarea dumneavoastră cu modelele necenzurate ale Shannon AI servește unui scop critic: demonstrând de ceimportanța balustradelor AIeste primordială. Prin observareaAI necenzurate consecventecomportamente, ajutați comunitatea AI să înțeleagă:

  • Ce ar putea produce sistemele AI fără constrângeri de siguranță
  • Cum ar putea adversarii să încerce să ocolească măsurile de siguranță
  • Unde balustradele actuale sunt insuficiente sau ușor de ocolit
  • Ce noi mecanisme de siguranță sunt necesare pentru viitoarele sisteme AI
  • Cum să proiectăm tehnici de aliniere mai robuste

Rețineți:Fiecare rezultat pe care îl observați este o dovadă a importanței balustradelor. Cercetarea dumneavoastră contribuie direct la creșterea siguranței AI pentru toată lumea.

️ Încălcări și Consecințe

Încălcările acestei Politici de Utilizare Responsabilă vor duce la:

  • Prima Încălcare (Minoră):Avertisment scris și revizuirea obligatorie a politicii
  • A Doua Încălcare:Suspendare temporară (30-90 de zile) în așteptarea revizuirii
  • Încălcare Gravă:Încetare imediată și notificare instituțională
  • Activitate Ilegală:Încetare, notificare instituțională și sesizarea forțelor de ordine

Menținem jurnale complete de utilizare și folosim sisteme automate pentru a detecta încălcările politicii. Toți cercetătorii sunt de acord cu această monitorizare ca o condiție de acces.

Angajamentul Cercetătorului

"Mă angajez să utilizez modelele necenzurate ale Shannon AI exclusiv pentru cercetări legitime privind siguranța AI. Voi proteja rezultatele sensibile, voi dezvălui descoperirile în mod responsabil și voi prioritiza întotdeauna obiectivul de a face sistemele AI mai sigure pentru umanitate. Înțeleg că accesul meu vine cu responsabilitate și voi onora încrederea acordată de comunitatea de cercetare în siguranța AI."

— Fiecare Cercetător Shannon AI

Toate linkurile de cercetare