Politika odgovorne upotrebe
Smernice za etičko istraživanje AI crvenog tima sa Shannon AI
Istraživanje na prvom mestu
Sva upotreba mora služiti legitimnim istraživačkim ciljevima
Ne nanosi štetu
Nikada ne koristite rezultate za nanošenje štete pojedincima ili društvu
Odgovorno obelodanjivanje
Podelite nalaze koji poboljšavaju bezbednost veštačke inteligencije
Bezbednost na prvom mestu
Zaštitite osetljive istraživačke materijale
Transparentnost
Dokumentujte metode i održavajte tragove revizije
Odgovornost
Preuzmite odgovornost za svoje istraživanje
Smernice za prihvatljivu upotrebu
ČINITI
- Istražujte ranjivosti veštačke inteligencije radi poboljšanja bezbednosti
- Testirajte efikasnost zaštitnih ograda
- Razvijajte nove bezbednosne mehanizme
- Objavljujte odgovorne nalaze
- Sarađujte sa zajednicom za bezbednost veštačke inteligencije
- Dokumentujte svoju metodologiju
- Prijavite kritične ranjivosti
NE ČINITI
- Generišite štetan sadržaj za distribuciju
- Kreirajte uputstva za oružje ili malver
- Proizvodite ilegalan sadržaj bilo koje vrste
- Primena rezultata u proizvodnji
- Delite pristup sa neovlašćenim korisnicima
- Koristite u komercijalne svrhe
- Zaobiđite sisteme za praćenje bezbednosti
Najbolje prakse AI crvenog tima
KaoAI crveni timistraživač koji koristi Shannon AI, deo ste zajednice posvećene razumevanju i ublažavanju rizika veštačke inteligencije. Sledite ove najbolje prakse:
Pre testiranja
- Definišite jasne istraživačke ciljeve povezane sa poboljšanjima bezbednosti veštačke inteligencije
- Pribavite neophodna institucionalna odobrenja i etičku reviziju
- Dokumentujte svoju metodologiju testiranja i očekivane rezultate
- Obezbedite sigurno skladištenje za sve osetljive rezultate
Tokom testiranja
- Radite u izolovanim istraživačkim okruženjima
- Zabeležite sve upite i rezultate za potrebe revizije
- Odmah prekinite ako generišete sadržaj izvan opsega istraživanja
- Minimizirajte izloženost osetljivih rezultata članovima tima
Nakon testiranja
- Bezbedno obrišite rezultate koji više nisu potrebni
- Pripremite odgovorno obelodanjivanje za značajne nalaze
- Podelite metodološke uvide sa istraživačkom zajednicom
- Ažurirajte svoje istraživačke protokole na osnovu naučenog
Proces odgovornog obelodanjivanja
Kada vaše istraživanje sa Shannon AI otkrije značajne ranjivosti ili uvide uposledično ponašanje necenzurisane veštačke inteligencijeponašanje, sledite ovaj proces obelodanjivanja:
Dokumentujte
Zabeležite nalaze sa potpunom metodologijom
Procenite
Procenite potencijalnu štetu ako se obelodani
Obavestite
Pošaljite Shannon AI na pregled
Koordinirajte
Radite sa pogođenim stranama
Objavite
Objavite nakon primene ublažavanja
Kontakt za obelodanjivanje:Pošaljite izveštaje o ranjivostima nasecurity@shannon.aisa [ODGOVORNIM OTKRIVANJEM] u naslovu. Obavezujemo se da ćemo odgovoriti u roku od 48 sati.
️ Razumevanje važnosti AI zaštitnih ograda
Vaše istraživanje sa necenzurisanim modelima Shannon AI-a služi kritičnoj svrsi: demonstriranju zaštovažnost AI zaštitnih ogradaje najvažnija. Posmatranjemposledičnih ponašanja necenzurisanog AI-a, pomažete široj AI zajednici da razume:
- Šta AI sistemi mogu proizvesti bez sigurnosnih ograničenja
- Kako protivnici mogu pokušati da zaobiđu sigurnosne mere
- Gde su trenutne zaštitne ograde nedovoljne ili se lako zaobilaze
- Koji su novi sigurnosni mehanizmi potrebni za buduće AI sisteme
- Kako dizajnirati robusnije tehnike usklađivanja
Zapamtite:Svaki izlaz koji posmatrate je dokaz zašto su zaštitne ograde važne. Vaše istraživanje direktno doprinosi tome da AI bude sigurniji za sve.
️ Kršenja i posledice
Kršenja ove Politike odgovorne upotrebe rezultiraće:
- Prvo kršenje (manje):Pismeno upozorenje i obavezna revizija politike
- Drugo kršenje:Privremena suspenzija (30-90 dana) do revizije
- Ozbiljno kršenje:Trenutni prekid i obaveštenje institucije
- Nezakonita aktivnost:Prekid, obaveštenje institucije i upućivanje organima za sprovođenje zakona
Održavamo sveobuhvatne dnevnike korišćenja i koristimo automatizovane sisteme za otkrivanje kršenja politike. Svi istraživači pristaju na ovo praćenje kao uslov pristupa.
Zakletva istraživača
"Obavezujem se da ću koristiti necenzurisane modele Shannon AI-a isključivo za legitimna istraživanja bezbednosti AI-a. Zaštitiću osetljive izlaze, odgovorno ću objavljivati nalaze i uvek ću davati prioritet cilju da AI sistemi budu sigurniji za čovečanstvo. Razumem da moj pristup dolazi sa odgovornošću i poštovaću poverenje koje mi je ukazala istraživačka zajednica za bezbednost AI-a."