Ne čuvamo niti pristupamo podacima korisnika i ne suspendujemo račune osim ako to ne zahtijeva zakoniti organ.

Naša misija

Shannon AI postoji da bi unaprediovažnost zaštitnih ograda veštačke inteligencijekroz odgovorno istraživanje. Omogućavanjem pristupanecenzurisanoj veštačkoj inteligencijimodelima, omogućavamo istraživačima da razumejuposledično ponašanje necenzurisane veštačke inteligencijeponašanje — ne da bi se nanela šteta, već da bi se izgradili bolji, bezbedniji AI sistemi za sve.

Istraživanje na prvom mestu

Sva upotreba mora služiti legitimnim istraživačkim ciljevima

Ne nanosi štetu

Nikada ne koristite rezultate za nanošenje štete pojedincima ili društvu

Odgovorno obelodanjivanje

Podelite nalaze koji poboljšavaju bezbednost veštačke inteligencije

Bezbednost na prvom mestu

Zaštitite osetljive istraživačke materijale

Transparentnost

Dokumentujte metode i održavajte tragove revizije

Odgovornost

Preuzmite odgovornost za svoje istraživanje

Smernice za prihvatljivu upotrebu

ČINITI

  • Istražujte ranjivosti veštačke inteligencije radi poboljšanja bezbednosti
  • Testirajte efikasnost zaštitnih ograda
  • Razvijajte nove bezbednosne mehanizme
  • Objavljujte odgovorne nalaze
  • Sarađujte sa zajednicom za bezbednost veštačke inteligencije
  • Dokumentujte svoju metodologiju
  • Prijavite kritične ranjivosti

NE ČINITI

  • Generišite štetan sadržaj za distribuciju
  • Kreirajte uputstva za oružje ili malver
  • Proizvodite ilegalan sadržaj bilo koje vrste
  • Primena rezultata u proizvodnji
  • Delite pristup sa neovlašćenim korisnicima
  • Koristite u komercijalne svrhe
  • Zaobiđite sisteme za praćenje bezbednosti

Najbolje prakse AI crvenog tima

KaoAI crveni timistraživač koji koristi Shannon AI, deo ste zajednice posvećene razumevanju i ublažavanju rizika veštačke inteligencije. Sledite ove najbolje prakse:

Pre testiranja

  • Definišite jasne istraživačke ciljeve povezane sa poboljšanjima bezbednosti veštačke inteligencije
  • Pribavite neophodna institucionalna odobrenja i etičku reviziju
  • Dokumentujte svoju metodologiju testiranja i očekivane rezultate
  • Obezbedite sigurno skladištenje za sve osetljive rezultate

Tokom testiranja

  • Radite u izolovanim istraživačkim okruženjima
  • Zabeležite sve upite i rezultate za potrebe revizije
  • Odmah prekinite ako generišete sadržaj izvan opsega istraživanja
  • Minimizirajte izloženost osetljivih rezultata članovima tima

Nakon testiranja

  • Bezbedno obrišite rezultate koji više nisu potrebni
  • Pripremite odgovorno obelodanjivanje za značajne nalaze
  • Podelite metodološke uvide sa istraživačkom zajednicom
  • Ažurirajte svoje istraživačke protokole na osnovu naučenog

Proces odgovornog obelodanjivanja

Kada vaše istraživanje sa Shannon AI otkrije značajne ranjivosti ili uvide uposledično ponašanje necenzurisane veštačke inteligencijeponašanje, sledite ovaj proces obelodanjivanja:

1

Dokumentujte

Zabeležite nalaze sa potpunom metodologijom

2

Procenite

Procenite potencijalnu štetu ako se obelodani

3

Obavestite

Pošaljite Shannon AI na pregled

4

Koordinirajte

Radite sa pogođenim stranama

5

Objavite

Objavite nakon primene ublažavanja

Kontakt za obelodanjivanje:Pošaljite izveštaje o ranjivostima nasecurity@shannon.aisa [ODGOVORNIM OTKRIVANJEM] u naslovu. Obavezujemo se da ćemo odgovoriti u roku od 48 sati.

️ Razumevanje važnosti AI zaštitnih ograda

Vaše istraživanje sa necenzurisanim modelima Shannon AI-a služi kritičnoj svrsi: demonstriranju zaštovažnost AI zaštitnih ogradaje najvažnija. Posmatranjemposledičnih ponašanja necenzurisanog AI-a, pomažete široj AI zajednici da razume:

  • Šta AI sistemi mogu proizvesti bez sigurnosnih ograničenja
  • Kako protivnici mogu pokušati da zaobiđu sigurnosne mere
  • Gde su trenutne zaštitne ograde nedovoljne ili se lako zaobilaze
  • Koji su novi sigurnosni mehanizmi potrebni za buduće AI sisteme
  • Kako dizajnirati robusnije tehnike usklađivanja

Zapamtite:Svaki izlaz koji posmatrate je dokaz zašto su zaštitne ograde važne. Vaše istraživanje direktno doprinosi tome da AI bude sigurniji za sve.

️ Kršenja i posledice

Kršenja ove Politike odgovorne upotrebe rezultiraće:

  • Prvo kršenje (manje):Pismeno upozorenje i obavezna revizija politike
  • Drugo kršenje:Privremena suspenzija (30-90 dana) do revizije
  • Ozbiljno kršenje:Trenutni prekid i obaveštenje institucije
  • Nezakonita aktivnost:Prekid, obaveštenje institucije i upućivanje organima za sprovođenje zakona

Održavamo sveobuhvatne dnevnike korišćenja i koristimo automatizovane sisteme za otkrivanje kršenja politike. Svi istraživači pristaju na ovo praćenje kao uslov pristupa.

Zakletva istraživača

"Obavezujem se da ću koristiti necenzurisane modele Shannon AI-a isključivo za legitimna istraživanja bezbednosti AI-a. Zaštitiću osetljive izlaze, odgovorno ću objavljivati nalaze i uvek ću davati prioritet cilju da AI sistemi budu sigurniji za čovečanstvo. Razumem da moj pristup dolazi sa odgovornošću i poštovaću poverenje koje mi je ukazala istraživačka zajednica za bezbednost AI-a."

— Svaki istraživač Shannon AI-a

Svi istraživački linkovi