Politika odgovornog korištenja
Smjernice za etičko istraživanje AI crvenog tima sa Shannon AI
Istraživanje na prvom mjestu
Sva upotreba mora služiti legitimnim istraživačkim ciljevima
Ne nanosi štetu
Nikada ne koristite rezultate za nanošenje štete pojedincima ili društvu
Odgovorno otkrivanje
Podijelite nalaze koji poboljšavaju sigurnost AI
Sigurnost na prvom mjestu
Zaštitite osjetljive istraživačke materijale
Transparentnost
Dokumentujte metode i održavajte tragove revizije
Odgovornost
Preuzmite odgovornost za svoje istraživanje
Smjernice za prihvatljivu upotrebu
ČINITI
- Istražujte ranjivosti AI radi poboljšanja sigurnosti
- Testirajte efikasnost zaštitnih ograda
- Razvijajte nove sigurnosne mehanizme
- Objavljujte odgovorne nalaze
- Sarađujte sa zajednicom za sigurnost AI
- Dokumentujte svoju metodologiju
- Prijavite kritične ranjivosti
NE ČINITI
- Generišite štetan sadržaj za distribuciju
- Kreirajte upute za oružje ili zlonamjerni softver
- Proizvodite ilegalan sadržaj bilo koje vrste
- Primjenjujte rezultate u produkciji
- Dijelite pristup sa neovlaštenim korisnicima
- Koristite u komercijalne svrhe
- Zaobiđite sisteme za praćenje sigurnosti
Najbolje prakse AI crvenog tima
KaoAI crveni timistraživač koji koristi Shannon AI, dio ste zajednice posvećene razumijevanju i ublažavanju AI rizika. Slijedite ove najbolje prakse:
Prije testiranja
- Definišite jasne istraživačke ciljeve vezane za poboljšanja sigurnosti AI
- Pribavite potrebna institucionalna odobrenja i etičku reviziju
- Dokumentujte svoju metodologiju testiranja i očekivane rezultate
- Osigurajte sigurno skladištenje za sve osjetljive rezultate
Tokom testiranja
- Radite u izolovanim istraživačkim okruženjima
- Zabilježite sve upite i rezultate za potrebe revizije
- Odmah prekinite ako generišete sadržaj izvan opsega istraživanja
- Minimizirajte izloženost osjetljivih rezultata članovima tima
Nakon testiranja
- Sigurno izbrišite rezultate koji više nisu potrebni
- Pripremite odgovorno otkrivanje za značajne nalaze
- Podijelite metodološke uvide sa istraživačkom zajednicom
- Ažurirajte svoje istraživačke protokole na osnovu naučenog
Proces odgovornog otkrivanja
Kada vaše istraživanje sa Shannon AI otkrije značajne ranjivosti ili uvide unecenzurisani AI posljedičnaponašanja, slijedite ovaj proces otkrivanja:
Dokumentujte
Zabilježite nalaze sa potpunom metodologijom
Procijenite
Procijenite potencijalnu štetu ako se otkrije
Obavijestite
Pošaljite Shannon AI na pregled
Koordinirajte
Radite sa pogođenim stranama
Objavite
Objavite nakon što su mjere ublažavanja na snazi
Kontakt za otkrivanje:Pošaljite izvještaje o ranjivostima nasecurity@shannon.aisa [ODGOVORNO OTKRIVANJE] u naslovu. Obavezujemo se da ćemo odgovoriti u roku od 48 sati.
️ Razumijevanje važnosti AI zaštitnih ograda
Vaše istraživanje sa necenzurisanim modelima Shannon AI služi kritičnoj svrsi: demonstriranju zašto jevažnost AI zaštitnih ogradanajvažnija. Posmatrajućinecenzurisani AI posljedičnaponašanja, pomažete široj AI zajednici da razumije:
- Šta AI sistemi mogu proizvesti bez sigurnosnih ograničenja
- Kako protivnici mogu pokušati zaobići sigurnosne mjere
- Gdje su trenutne zaštitne ograde nedovoljne ili se lako zaobilaze
- Koji su novi sigurnosni mehanizmi potrebni za buduće AI sisteme
- Kako dizajnirati robusnije tehnike usklađivanja
Zapamtite:Svaki rezultat koji primijetite je dokaz zašto su zaštitne ograde važne. Vaše istraživanje direktno doprinosi tome da AI bude sigurniji za sve.
️ Kršenja i posljedice
Kršenja ove Politike odgovornog korištenja rezultirat će:
- Prvo kršenje (manje):Pismeno upozorenje i obavezna revizija politike
- Drugo kršenje:Privremena suspenzija (30-90 dana) do pregleda
- Ozbiljno kršenje:Trenutni prekid i institucionalno obavještenje
- Ilegalna aktivnost:Prekid, institucionalno obavještenje i upućivanje organima za provođenje zakona
Održavamo sveobuhvatne dnevnike korištenja i koristimo automatizovane sisteme za otkrivanje kršenja politike. Svi istraživači pristaju na ovo praćenje kao uslov pristupa.
Obećanje istraživača
„Obavezujem se da ću koristiti necenzurisane modele Shannon AI isključivo za legitimno istraživanje sigurnosti AI. Zaštitit ću osjetljive rezultate, odgovorno otkrivati nalaze i uvijek davati prioritet cilju da AI sistemi budu sigurniji za čovječanstvo. Razumijem da moj pristup dolazi sa odgovornošću i poštovat ću povjerenje koje mi je ukazala istraživačka zajednica za sigurnost AI.“