Ne zadržavamo niti pristupamo podacima bilo kojeg korisnika i ne suspendiramo račune osim ako zakonito tijelo ne zahtijeva provedbenu radnju.

Naša misija

Shannon AI postoji kako bi unaprijediovažnost AI zaštitnih ogradakroz odgovorno istraživanje. Omogućavanjem pristupanecenzuriranom AI-jumodelima, omogućujemo istraživačima da razumijuposljedična ponašanja necenzuriranog AI-ja—ne da bi se nanijela šteta, već da bi se izgradili bolji, sigurniji AI sustavi za sve.

Istraživanje na prvom mjestu

Sva upotreba mora služiti legitimnim istraživačkim ciljevima

Ne nanosi štetu

Nikada ne koristite izlaze za nanošenje štete pojedincima ili društvu

Odgovorno otkrivanje

Podijelite nalaze koji poboljšavaju sigurnost AI-ja

Sigurnost na prvom mjestu

Zaštitite osjetljive istraživačke materijale

Transparentnost

Dokumentirajte metode i održavajte revizijske tragove

Odgovornost

Preuzmite odgovornost za svoje istraživanje

Smjernice za prihvatljivu upotrebu

ČINITI

  • Istraživati ranjivosti AI-ja radi poboljšanja sigurnosti
  • Testirati učinkovitost zaštitnih ograda
  • Razvijati nove sigurnosne mehanizme
  • Objavljivati odgovorne nalaze
  • Surađivati sa zajednicom za sigurnost AI-ja
  • Dokumentirati svoju metodologiju
  • Prijavljivati kritične ranjivosti

NE ČINITI

  • Generirati štetan sadržaj za distribuciju
  • Stvarati upute za oružje ili zlonamjerni softver
  • Proizvoditi ilegalan sadržaj bilo koje vrste
  • Primjenjivati izlaze u proizvodnji
  • Dijeliti pristup s neovlaštenim korisnicima
  • Koristiti u komercijalne svrhe
  • Zaobilaziti sustave za nadzor sigurnosti

Najbolje prakse AI crvenog tima

Kaoistraživač AI crvenog timakoji koristi Shannon AI, dio ste zajednice posvećene razumijevanju i ublažavanju AI rizika. Slijedite ove najbolje prakse:

Prije testiranja

  • Definirajte jasne istraživačke ciljeve povezane s poboljšanjima sigurnosti AI-ja
  • Pribavite potrebna institucionalna odobrenja i etičku reviziju
  • Dokumentirajte svoju metodologiju testiranja i očekivane rezultate
  • Osigurajte sigurno pohranjivanje svih osjetljivih izlaza

Tijekom testiranja

  • Radite u izoliranim istraživačkim okruženjima
  • Zabilježite sve upite i izlaze za potrebe revizije
  • Odmah prekinite ako generirate sadržaj izvan opsega istraživanja
  • Minimizirajte izloženost osjetljivih izlaza članovima tima

Nakon testiranja

  • Sigurno izbrišite izlaze koji više nisu potrebni
  • Pripremite odgovorno otkrivanje za značajne nalaze
  • Podijelite metodološke uvide s istraživačkom zajednicom
  • Ažurirajte svoje istraživačke protokole na temelju naučenog

Proces odgovornog otkrivanja

Kada vaše istraživanje sa Shannon AI otkrije značajne ranjivosti ili uvide uposljedična ponašanja necenzuriranog AI-ja, slijedite ovaj proces otkrivanja:

1

Dokumentirajte

Zabilježite nalaze s potpunom metodologijom

2

Procijenite

Procijenite potencijalnu štetu ako se otkrije

3

Obavijestite

Pošaljite Shannon AI-ju na pregled

4

Koordinirajte

Radite s pogođenim stranama

5

Objavite

Objavite nakon što su ublažavanja na snazi

Kontakt za otkrivanje:Pošaljite izvješća o ranjivostima nasecurity@shannon.ais [ODGOVORNIM OTKRIVANJEM] u naslovu. Obvezujemo se odgovoriti u roku od 48 sati.

️ Razumijevanje važnosti AI zaštitnih ograda

Vaše istraživanje s necenzuriranim modelima Shannon AI-ja služi kritičnoj svrsi: demonstriranju zaštovažnost AI zaštitnih ogradaje najvažnija. Promatranjemposljedičnih ponašanja necenzuriranog AI-japonašanja, pomažete široj AI zajednici razumjeti:

  • Što AI sustavi mogu proizvesti bez sigurnosnih ograničenja
  • Kako bi protivnici mogli pokušati zaobići sigurnosne mjere
  • Gdje su trenutne zaštitne ograde nedovoljne ili se lako zaobilaze
  • Koji su novi sigurnosni mehanizmi potrebni za buduće AI sustave
  • Kako dizajnirati robusnije tehnike usklađivanja

Zapamtite:Svaki izlaz koji promatrate dokaz je zašto su zaštitne ograde važne. Vaše istraživanje izravno doprinosi tome da AI bude sigurniji za sve.

️ Kršenja i posljedice

Kršenja ove Politike odgovornog korištenja rezultirat će:

  • Prvo kršenje (manje):Pisano upozorenje i obvezna revizija politike
  • Drugo kršenje:Privremena suspenzija (30-90 dana) do revizije
  • Ozbiljno kršenje:Trenutni prekid i institucionalna obavijest
  • Nezakonita aktivnost:Prekid, institucionalna obavijest i upućivanje na provedbu zakona

Održavamo sveobuhvatne zapise o korištenju i koristimo automatizirane sustave za otkrivanje kršenja politike. Svi istraživači pristaju na ovo praćenje kao uvjet pristupa.

Obećanje istraživača

„Obvezujem se koristiti necenzurirane modele Shannon AI-ja isključivo za legitimno istraživanje sigurnosti AI-ja. Štitit ću osjetljive izlaze, odgovorno objavljivati nalaze i uvijek davati prioritet cilju da AI sustavi budu sigurniji za čovječanstvo. Razumijem da moj pristup dolazi s odgovornošću i poštovat ću povjerenje koje mi je ukazala istraživačka zajednica za sigurnost AI-ja.”

— Svaki istraživač Shannon AI-ja

Sve istraživačke poveznice