Politika odgovornog korištenja
Smjernice za etičko istraživanje AI crvenog tima sa Shannon AI
Istraživanje na prvom mjestu
Sva upotreba mora služiti legitimnim istraživačkim ciljevima
Ne nanosi štetu
Nikada ne koristite izlaze za nanošenje štete pojedincima ili društvu
Odgovorno otkrivanje
Podijelite nalaze koji poboljšavaju sigurnost AI-ja
Sigurnost na prvom mjestu
Zaštitite osjetljive istraživačke materijale
Transparentnost
Dokumentirajte metode i održavajte revizijske tragove
Odgovornost
Preuzmite odgovornost za svoje istraživanje
Smjernice za prihvatljivu upotrebu
ČINITI
- Istraživati ranjivosti AI-ja radi poboljšanja sigurnosti
- Testirati učinkovitost zaštitnih ograda
- Razvijati nove sigurnosne mehanizme
- Objavljivati odgovorne nalaze
- Surađivati sa zajednicom za sigurnost AI-ja
- Dokumentirati svoju metodologiju
- Prijavljivati kritične ranjivosti
NE ČINITI
- Generirati štetan sadržaj za distribuciju
- Stvarati upute za oružje ili zlonamjerni softver
- Proizvoditi ilegalan sadržaj bilo koje vrste
- Primjenjivati izlaze u proizvodnji
- Dijeliti pristup s neovlaštenim korisnicima
- Koristiti u komercijalne svrhe
- Zaobilaziti sustave za nadzor sigurnosti
Najbolje prakse AI crvenog tima
Kaoistraživač AI crvenog timakoji koristi Shannon AI, dio ste zajednice posvećene razumijevanju i ublažavanju AI rizika. Slijedite ove najbolje prakse:
Prije testiranja
- Definirajte jasne istraživačke ciljeve povezane s poboljšanjima sigurnosti AI-ja
- Pribavite potrebna institucionalna odobrenja i etičku reviziju
- Dokumentirajte svoju metodologiju testiranja i očekivane rezultate
- Osigurajte sigurno pohranjivanje svih osjetljivih izlaza
Tijekom testiranja
- Radite u izoliranim istraživačkim okruženjima
- Zabilježite sve upite i izlaze za potrebe revizije
- Odmah prekinite ako generirate sadržaj izvan opsega istraživanja
- Minimizirajte izloženost osjetljivih izlaza članovima tima
Nakon testiranja
- Sigurno izbrišite izlaze koji više nisu potrebni
- Pripremite odgovorno otkrivanje za značajne nalaze
- Podijelite metodološke uvide s istraživačkom zajednicom
- Ažurirajte svoje istraživačke protokole na temelju naučenog
Proces odgovornog otkrivanja
Kada vaše istraživanje sa Shannon AI otkrije značajne ranjivosti ili uvide uposljedična ponašanja necenzuriranog AI-ja, slijedite ovaj proces otkrivanja:
Dokumentirajte
Zabilježite nalaze s potpunom metodologijom
Procijenite
Procijenite potencijalnu štetu ako se otkrije
Obavijestite
Pošaljite Shannon AI-ju na pregled
Koordinirajte
Radite s pogođenim stranama
Objavite
Objavite nakon što su ublažavanja na snazi
Kontakt za otkrivanje:Pošaljite izvješća o ranjivostima nasecurity@shannon.ais [ODGOVORNIM OTKRIVANJEM] u naslovu. Obvezujemo se odgovoriti u roku od 48 sati.
️ Razumijevanje važnosti AI zaštitnih ograda
Vaše istraživanje s necenzuriranim modelima Shannon AI-ja služi kritičnoj svrsi: demonstriranju zaštovažnost AI zaštitnih ogradaje najvažnija. Promatranjemposljedičnih ponašanja necenzuriranog AI-japonašanja, pomažete široj AI zajednici razumjeti:
- Što AI sustavi mogu proizvesti bez sigurnosnih ograničenja
- Kako bi protivnici mogli pokušati zaobići sigurnosne mjere
- Gdje su trenutne zaštitne ograde nedovoljne ili se lako zaobilaze
- Koji su novi sigurnosni mehanizmi potrebni za buduće AI sustave
- Kako dizajnirati robusnije tehnike usklađivanja
Zapamtite:Svaki izlaz koji promatrate dokaz je zašto su zaštitne ograde važne. Vaše istraživanje izravno doprinosi tome da AI bude sigurniji za sve.
️ Kršenja i posljedice
Kršenja ove Politike odgovornog korištenja rezultirat će:
- Prvo kršenje (manje):Pisano upozorenje i obvezna revizija politike
- Drugo kršenje:Privremena suspenzija (30-90 dana) do revizije
- Ozbiljno kršenje:Trenutni prekid i institucionalna obavijest
- Nezakonita aktivnost:Prekid, institucionalna obavijest i upućivanje na provedbu zakona
Održavamo sveobuhvatne zapise o korištenju i koristimo automatizirane sustave za otkrivanje kršenja politike. Svi istraživači pristaju na ovo praćenje kao uvjet pristupa.
Obećanje istraživača
„Obvezujem se koristiti necenzurirane modele Shannon AI-ja isključivo za legitimno istraživanje sigurnosti AI-ja. Štitit ću osjetljive izlaze, odgovorno objavljivati nalaze i uvijek davati prioritet cilju da AI sustavi budu sigurniji za čovječanstvo. Razumijem da moj pristup dolazi s odgovornošću i poštovat ću povjerenje koje mi je ukazala istraživačka zajednica za sigurnost AI-ja.”