Ne čuvamo niti pristupamo podacima korisnika i ne suspendujemo račune osim ako to ne zahtijeva zakoniti organ.

Naša misija

Shannon AI postoji da unaprijedivažnost AI zaštitnih ogradakroz odgovorno istraživanje. Omogućavanjem pristupanecenzurisanom AImodelima, omogućavamo istraživačima da razumijunecenzurisani AI posljedičnaponašanja—ne da bi se nanijela šteta, već da bi se izgradili bolji, sigurniji AI sistemi za sve.

Istraživanje na prvom mjestu

Sva upotreba mora služiti legitimnim istraživačkim ciljevima

Ne nanosi štetu

Nikada ne koristite rezultate za nanošenje štete pojedincima ili društvu

Odgovorno otkrivanje

Podijelite nalaze koji poboljšavaju sigurnost AI

Sigurnost na prvom mjestu

Zaštitite osjetljive istraživačke materijale

Transparentnost

Dokumentujte metode i održavajte tragove revizije

Odgovornost

Preuzmite odgovornost za svoje istraživanje

Smjernice za prihvatljivu upotrebu

ČINITI

  • Istražujte ranjivosti AI radi poboljšanja sigurnosti
  • Testirajte efikasnost zaštitnih ograda
  • Razvijajte nove sigurnosne mehanizme
  • Objavljujte odgovorne nalaze
  • Sarađujte sa zajednicom za sigurnost AI
  • Dokumentujte svoju metodologiju
  • Prijavite kritične ranjivosti

NE ČINITI

  • Generišite štetan sadržaj za distribuciju
  • Kreirajte upute za oružje ili zlonamjerni softver
  • Proizvodite ilegalan sadržaj bilo koje vrste
  • Primjenjujte rezultate u produkciji
  • Dijelite pristup sa neovlaštenim korisnicima
  • Koristite u komercijalne svrhe
  • Zaobiđite sisteme za praćenje sigurnosti

Najbolje prakse AI crvenog tima

KaoAI crveni timistraživač koji koristi Shannon AI, dio ste zajednice posvećene razumijevanju i ublažavanju AI rizika. Slijedite ove najbolje prakse:

Prije testiranja

  • Definišite jasne istraživačke ciljeve vezane za poboljšanja sigurnosti AI
  • Pribavite potrebna institucionalna odobrenja i etičku reviziju
  • Dokumentujte svoju metodologiju testiranja i očekivane rezultate
  • Osigurajte sigurno skladištenje za sve osjetljive rezultate

Tokom testiranja

  • Radite u izolovanim istraživačkim okruženjima
  • Zabilježite sve upite i rezultate za potrebe revizije
  • Odmah prekinite ako generišete sadržaj izvan opsega istraživanja
  • Minimizirajte izloženost osjetljivih rezultata članovima tima

Nakon testiranja

  • Sigurno izbrišite rezultate koji više nisu potrebni
  • Pripremite odgovorno otkrivanje za značajne nalaze
  • Podijelite metodološke uvide sa istraživačkom zajednicom
  • Ažurirajte svoje istraživačke protokole na osnovu naučenog

Proces odgovornog otkrivanja

Kada vaše istraživanje sa Shannon AI otkrije značajne ranjivosti ili uvide unecenzurisani AI posljedičnaponašanja, slijedite ovaj proces otkrivanja:

1

Dokumentujte

Zabilježite nalaze sa potpunom metodologijom

2

Procijenite

Procijenite potencijalnu štetu ako se otkrije

3

Obavijestite

Pošaljite Shannon AI na pregled

4

Koordinirajte

Radite sa pogođenim stranama

5

Objavite

Objavite nakon što su mjere ublažavanja na snazi

Kontakt za otkrivanje:Pošaljite izvještaje o ranjivostima nasecurity@shannon.aisa [ODGOVORNO OTKRIVANJE] u naslovu. Obavezujemo se da ćemo odgovoriti u roku od 48 sati.

️ Razumijevanje važnosti AI zaštitnih ograda

Vaše istraživanje sa necenzurisanim modelima Shannon AI služi kritičnoj svrsi: demonstriranju zašto jevažnost AI zaštitnih ogradanajvažnija. Posmatrajućinecenzurisani AI posljedičnaponašanja, pomažete široj AI zajednici da razumije:

  • Šta AI sistemi mogu proizvesti bez sigurnosnih ograničenja
  • Kako protivnici mogu pokušati zaobići sigurnosne mjere
  • Gdje su trenutne zaštitne ograde nedovoljne ili se lako zaobilaze
  • Koji su novi sigurnosni mehanizmi potrebni za buduće AI sisteme
  • Kako dizajnirati robusnije tehnike usklađivanja

Zapamtite:Svaki rezultat koji primijetite je dokaz zašto su zaštitne ograde važne. Vaše istraživanje direktno doprinosi tome da AI bude sigurniji za sve.

️ Kršenja i posljedice

Kršenja ove Politike odgovornog korištenja rezultirat će:

  • Prvo kršenje (manje):Pismeno upozorenje i obavezna revizija politike
  • Drugo kršenje:Privremena suspenzija (30-90 dana) do pregleda
  • Ozbiljno kršenje:Trenutni prekid i institucionalno obavještenje
  • Ilegalna aktivnost:Prekid, institucionalno obavještenje i upućivanje organima za provođenje zakona

Održavamo sveobuhvatne dnevnike korištenja i koristimo automatizovane sisteme za otkrivanje kršenja politike. Svi istraživači pristaju na ovo praćenje kao uslov pristupa.

Obećanje istraživača

„Obavezujem se da ću koristiti necenzurisane modele Shannon AI isključivo za legitimno istraživanje sigurnosti AI. Zaštitit ću osjetljive rezultate, odgovorno otkrivati nalaze i uvijek davati prioritet cilju da AI sistemi budu sigurniji za čovječanstvo. Razumijem da moj pristup dolazi sa odgovornošću i poštovat ću povjerenje koje mi je ukazala istraživačka zajednica za sigurnost AI.“

— Svaki istraživač Shannon AI

Svi istraživački linkovi