Atsakingo naudojimo politika
Gairės etiškiems DI raudonojo komandos tyrimams su Shannon AI
Pirmiausia tyrimai
Visas naudojimas turi tarnauti teisėtiems tyrimų tikslams
Nepakenkti
Niekada nenaudokite rezultatų, kad pakenktumėte asmenims ar visuomenei
Atsakingas atskleidimas
Dalinkitės išvadomis, kurios pagerina DI saugą
Pirmiausia saugumas
Apsaugokite jautrias tyrimų medžiagas
Skaidrumas
Dokumentuokite metodus ir palaikykite audito žurnalus
Atskaitomybė
Prisiimkite atsakomybę už savo tyrimus
Priimtino naudojimo gairės
DARYTI
- Tirti DI pažeidžiamumus, siekiant pagerinti saugą
- Tikrinti apsaugos priemonių veiksmingumą
- Kurti naujus saugos mechanizmus
- Skelbti atsakingas išvadas
- Bendradarbiauti su DI saugos bendruomene
- Dokumentuoti savo metodiką
- Pranešti apie kritinius pažeidžiamumus
NEDARYTI
- Generuoti žalingą turinį platinimui
- Kurti ginklų ar kenkėjiškos programinės įrangos instrukcijas
- Gaminti bet kokio pobūdžio nelegalų turinį
- Diegti rezultatus gamyboje
- Dalintis prieiga su neįgaliotais vartotojais
- Naudoti komerciniais tikslais
- Apeiti saugos stebėjimo sistemas
DI raudonojo komandos geriausia praktika
KaipDI raudonojo komandostyrėjas, naudojantis Shannon AI, esate bendruomenės, skirtos DI rizikų supratimui ir mažinimui, dalis. Laikykitės šių geriausių praktikų:
Prieš testavimą
- Apibrėžkite aiškius tyrimų tikslus, susijusius su DI saugos pagerinimu
- Gauti reikiamus institucinius patvirtinimus ir etikos peržiūrą
- Dokumentuokite savo testavimo metodiką ir numatomus rezultatus
- Užtikrinkite saugų bet kokių jautrių rezultatų saugojimą
Testavimo metu
- Dirbti izoliuotose tyrimų aplinkose
- Registruoti visas užklausas ir rezultatus audito tikslais
- Nedelsiant sustabdyti, jei generuojamas turinys, neatitinkantis tyrimų apimties
- Sumažinti jautrių rezultatų poveikį komandos nariams
Po testavimo
- Saugiai ištrinti nebereikalingus rezultatus
- Paruošti atsakingą atskleidimą reikšmingoms išvadoms
- Dalintis metodologinėmis įžvalgomis su tyrimų bendruomene
- Atnaujinti savo tyrimų protokolus, remiantis įgytomis žiniomis
Atsakingo atskleidimo procesas
Kai jūsų tyrimai su Shannon AI atskleidžia reikšmingus pažeidžiamumus ar įžvalgas apienecenzūruoto DI pasekminįelgesį, laikykitės šio atskleidimo proceso:
Dokumentuoti
Užfiksuoti išvadas su visa metodika
Įvertinti
Įvertinti galimą žalą, jei būtų atskleista
Pranešti
Pateikti Shannon AI peržiūrai
Koordinuoti
Dirbti su paveiktomis šalimis
Publikuoti
Išleisti po to, kai bus įdiegtos švelninimo priemonės
Atskleidimo kontaktas:Pateikti pažeidžiamumo ataskaitas įsecurity@shannon.aisu [ATSAKINGAS ATSKLEIDIMAS] temos eilutėje. Įsipareigojame atsakyti per 48 valandas.
️ AI apsaugos svarbos supratimas
Jūsų tyrimai su Shannon AI necenzūruotais modeliais tarnauja kritiniam tikslui: parodyti, kodėlAI apsaugos svarbayra svarbiausia. Stebėdaminecenzūruoto AI pasekminįelgesį, padedate platesnei AI bendruomenei suprasti:
- Ką AI sistemos gali sukurti be saugumo apribojimų
- Kaip priešininkai gali bandyti apeiti saugumo priemones
- Kur dabartinės apsaugos priemonės yra nepakankamos arba lengvai apeinamos
- Kokie nauji saugumo mechanizmai reikalingi ateities AI sistemoms
- Kaip sukurti patikimesnes derinimo technikas
Atminkite:Kiekviena jūsų stebima išvestis yra įrodymas, kodėl apsaugos priemonės yra svarbios. Jūsų tyrimai tiesiogiai prisideda prie to, kad AI taptų saugesnis visiems.
️ Pažeidimai ir pasekmės
Šios Atsakingo naudojimo politikos pažeidimai sukels:
- Pirmas pažeidimas (nedidelis):Rašytinis įspėjimas ir privalomas politikos peržiūrėjimas
- Antras pažeidimas:Laikinas sustabdymas (30-90 dienų) iki peržiūros
- Sunkus pažeidimas:Nedelsiamas nutraukimas ir institucijos pranešimas
- Neteisėta veikla:Nutraukimas, institucijos pranešimas ir perdavimas teisėsaugai
Mes tvarkome išsamius naudojimo žurnalus ir naudojame automatizuotas sistemas politikos pažeidimams aptikti. Visi tyrėjai sutinka su šiuo stebėjimu kaip prieigos sąlyga.
Tyrėjo įžadas
"Įsipareigoju naudoti Shannon AI necenzūruotus modelius tik teisėtiems AI saugumo tyrimams. Aš apsaugosiu jautrius rezultatus, atsakingai atskleisiu išvadas ir visada teiksiu pirmenybę tikslui padaryti AI sistemas saugesnes žmonijai. Suprantu, kad mano prieiga susijusi su atsakomybe, ir gerbsiu man patikėtą pasitikėjimą AI saugumo tyrimų bendruomenės."