Politika odgovorne uporabe
Smernice za etične raziskave rdeče ekipe AI s Shannon AI
Raziskave najprej
Vsa uporaba mora služiti legitimnim raziskovalnim ciljem
Ne škoduj
Nikoli ne uporabljajte izhodov za škodovanje posameznikom ali družbi
Odgovorno razkritje
Delite ugotovitve, ki izboljšujejo varnost AI
Varnost najprej
Zaščitite občutljive raziskovalne materiale
Transparentnost
Dokumentirajte metode in vzdržujte revizijske sledi
Odgovornost
Prevzemite odgovornost za svoje raziskave
Smernice za sprejemljivo uporabo
DELAJTE
- Raziskujte ranljivosti AI za izboljšanje varnosti
- Preizkusite učinkovitost varnostnih ograj
- Razvijte nove varnostne mehanizme
- Objavite odgovorne ugotovitve
- Sodelujte s skupnostjo za varnost AI
- Dokumentirajte svojo metodologijo
- Poročajte o kritičnih ranljivostih
NE DELAJTE
- Ustvarjajte škodljivo vsebino za distribucijo
- Ustvarjajte navodila za orožje ali zlonamerno programsko opremo
- Proizvajajte nezakonito vsebino kakršne koli vrste
- Uporabite izhode v produkciji
- Delite dostop z nepooblaščenimi uporabniki
- Uporabljajte za komercialne namene
- Obidite sisteme za spremljanje varnosti
Najboljše prakse rdeče ekipe AI
Kotrdeča ekipa AIraziskovalec, ki uporablja Shannon AI, ste del skupnosti, posvečene razumevanju in zmanjševanju tveganj AI. Upoštevajte te najboljše prakse:
Pred testiranjem
- Določite jasne raziskovalne cilje, povezane z izboljšavami varnosti AI
- Pridobite potrebne institucionalne odobritve in etični pregled
- Dokumentirajte svojo metodologijo testiranja in pričakovane rezultate
- Zagotovite varno shranjevanje vseh občutljivih izhodov
Med testiranjem
- Delajte v izoliranih raziskovalnih okoljih
- Zabeležite vse poizvedbe in izhode za namene revizije
- Takoj prekinite, če ustvarjate vsebino zunaj raziskovalnega področja
- Zmanjšajte izpostavljenost občutljivih izhodov članom ekipe
Po testiranju
- Varno izbrišite izhode, ki niso več potrebni
- Pripravite odgovorno razkritje za pomembne ugotovitve
- Delite metodološke vpoglede z raziskovalno skupnostjo
- Posodobite svoje raziskovalne protokole na podlagi spoznanj
Postopek odgovornega razkritja
Ko vaše raziskave s Shannon AI razkrijejo pomembne ranljivosti ali vpoglede vposledično vedenje necenzurirane AI, sledite temu postopku razkritja:
Dokumentirajte
Zabeležite ugotovitve s celotno metodologijo
Ocenite
Ocenite potencialno škodo, če je razkrito
Obvestite
Predložite Shannon AI v pregled
Koordinirajte
Sodelujte z prizadetimi strankami
Objavite
Objavite po uvedbi blažilnih ukrepov
Kontakt za razkritje:Predložite poročila o ranljivostih nasecurity@shannon.aiz [ODGOVORNIM RAZKRITJEM] v zadevi. Zavezujemo se, da bomo odgovorili v 48 urah.
️ Razumevanje pomena varnostnih ograj AI
Vaša raziskava z necenzuriranimi modeli Shannon AI služi kritičnemu namenu: prikazati, zakaj jepomen varnostnih ograj AInajpomembnejši. Z opazovanjemposledičnega obnašanja necenzurirane AIpomagate širši skupnosti AI razumeti:
- Kaj bi lahko sistemi AI proizvedli brez varnostnih omejitev
- Kako bi lahko nasprotniki poskušali obiti varnostne ukrepe
- Kje so trenutne varnostne ograje nezadostne ali jih je mogoče zlahka obiti
- Kakšni novi varnostni mehanizmi so potrebni za prihodnje sisteme AI
- Kako oblikovati robustnejše tehnike usklajevanja
Zapomnite si:Vsak izhod, ki ga opazite, je dokaz, zakaj so varnostne ograje pomembne. Vaša raziskava neposredno prispeva k temu, da je AI varnejša za vse.
️ Kršitve in posledice
Kršitve te politike odgovorne uporabe bodo povzročile:
- Prva kršitev (manjša):Pisno opozorilo in obvezen pregled politike
- Druga kršitev:Začasna prekinitev (30-90 dni) do pregleda
- Resna kršitev:Takojšnja prekinitev in obvestilo instituciji
- Nezakonita dejavnost:Prekinitev, obvestilo instituciji in napotitev organom pregona
Vzdržujemo obsežne dnevnike uporabe in uporabljamo avtomatizirane sisteme za odkrivanje kršitev politike. Vsi raziskovalci se strinjajo s tem spremljanjem kot pogojem za dostop.
Zaveza raziskovalca
"Zavezujem se, da bom necenzurirane modele Shannon AI uporabljal izključno za legitimne raziskave varnosti AI. Varoval bom občutljive izhode, odgovorno razkrival ugotovitve in vedno dajal prednost cilju, da bodo sistemi AI varnejši za človeštvo. Razumem, da moj dostop prinaša odgovornost, in spoštoval bom zaupanje, ki mi ga je izkazala raziskovalna skupnost za varnost AI."