Atbildīgas lietošanas politika
Vadlīnijas ētiskai AI sarkanās komandas pētījumiem ar Shannon AI
Pētījumi pirmajā vietā
Visa lietošana jākalpo likumīgiem pētījumu mērķiem
Nenodarīt kaitējumu
Nekad neizmantojiet rezultātus, lai nodarītu kaitējumu indivīdiem vai sabiedrībai
Atbildīga atklāšana
Dalieties ar atklājumiem, kas uzlabo AI drošību
Drošība pirmajā vietā
Aizsargājiet sensitīvus pētījumu materiālus
Caurspīdīgums
Dokumentējiet metodes un uzturiet audita pēdas
Atbildība
Uzņemieties atbildību par savu pētījumu
Pieņemamas lietošanas vadlīnijas
DARIET
- Pētiet AI ievainojamības, lai uzlabotu drošību
- Pārbaudiet drošības barjeru efektivitāti
- Izstrādājiet jaunus drošības mehānismus
- Publicējiet atbildīgus atklājumus
- Sadarbība ar AI drošības kopienu
- Dokumentējiet savu metodoloģiju
- Ziņojiet par kritiskām ievainojamībām
NEDARIET
- Ģenerējiet kaitīgu saturu izplatīšanai
- Izveidojiet ieroču vai ļaunprātīgas programmatūras instrukcijas
- Ražojiet jebkāda veida nelegālu saturu
- Izvietojiet rezultātus ražošanā
- Dalieties piekļuvē ar neatļautiem lietotājiem
- Izmantojiet komerciāliem mērķiem
- Apiet drošības uzraudzības sistēmas
AI Sarkanās komandas labākā prakse
KāAI sarkanās komandaspētnieks, kas izmanto Shannon AI, jūs esat daļa no kopienas, kas veltīta AI risku izpratnei un mazināšanai. Ievērojiet šo labāko praksi:
Pirms testēšanas
- Definējiet skaidrus pētījumu mērķus, kas saistīti ar AI drošības uzlabojumiem
- Iegūstiet nepieciešamos institucionālos apstiprinājumus un ētikas pārskatu
- Dokumentējiet savu testēšanas metodoloģiju un paredzamos rezultātus
- Nodrošiniet drošu jebkuru sensitīvu rezultātu glabāšanu
Testēšanas laikā
- Strādājiet izolētās pētījumu vidēs
- Reģistrējiet visus vaicājumus un rezultātus audita nolūkiem
- Nekavējoties pārtrauciet, ja tiek ģenerēts saturs ārpus pētījuma jomas
- Minimizējiet sensitīvu rezultātu pakļaušanu komandas dalībniekiem
Pēc testēšanas
- Droši dzēsiet rezultātus, kas vairs nav nepieciešami
- Sagatavojiet atbildīgu atklāšanu par nozīmīgiem atklājumiem
- Dalieties metodoloģiskajās atziņās ar pētījumu kopienu
- Atjauniniet savus pētījumu protokolus, pamatojoties uz gūtajām atziņām
Atbildīgas atklāšanas process
Kad jūsu pētījumi ar Shannon AI atklāj nozīmīgas ievainojamības vai atziņas parnecenzētas AI sekojošāsuzvedības, ievērojiet šo atklāšanas procesu:
Dokumentējiet
Ierakstiet atklājumus ar pilnu metodoloģiju
Novērtējiet
Novērtējiet iespējamo kaitējumu, ja tiek atklāts
Paziņojiet
Iesniedziet Shannon AI pārskatīšanai
Koordinējiet
Strādājiet ar skartajām pusēm
Publicējiet
Izlaidiet pēc tam, kad ir ieviesti mazināšanas pasākumi
Atklāšanas kontaktpersona:Iesniedziet ievainojamības ziņojumus uzsecurity@shannon.aiar [ATBILDĪGA IZPAUŠANA] tēmas rindiņā. Mēs apņemamies atbildēt 48 stundu laikā.
️ Izpratne par AI drošības barjeru nozīmi
Jūsu pētījumi ar Shannon AI necenzētajiem modeļiem kalpo kritiski svarīgam mērķim: demonstrējot, kāpēcAI drošības barjeru nozīmeir vissvarīgākā. Novērojotnecenzētas AI sekasuzvedību, jūs palīdzat plašākai AI kopienai saprast:
- Ko AI sistēmas varētu radīt bez drošības ierobežojumiem
- Kā pretinieki varētu mēģināt apiet drošības pasākumus
- Kur pašreizējās drošības barjeras ir nepietiekamas vai viegli apietamas
- Kādi jauni drošības mehānismi ir nepieciešami nākotnes AI sistēmām
- Kā izstrādāt stabilākas saskaņošanas metodes
Atcerieties:Katrs jūsu novērotais izvads ir pierādījums tam, kāpēc drošības barjeras ir svarīgas. Jūsu pētījumi tieši veicina AI padarīšanu drošāku ikvienam.
️ Pārkāpumi un sekas
Šīs Atbildīgas lietošanas politikas pārkāpumi radīs:
- Pirmais pārkāpums (neliels):Rakstisks brīdinājums un obligāta politikas pārskatīšana
- Otrais pārkāpums:Pagaidu apturēšana (30-90 dienas) līdz pārskatīšanai
- Nopietns pārkāpums:Tūlītēja izbeigšana un institucionāla paziņošana
- Nelikumīga darbība:Izbeigšana, institucionāla paziņošana un nodošana tiesībaizsardzības iestādēm
Mēs uzturam visaptverošus lietošanas žurnālus un izmantojam automatizētas sistēmas politikas pārkāpumu noteikšanai. Visi pētnieki piekrīt šai uzraudzībai kā piekļuves nosacījumam.
Pētnieka solījums
"Es apņemos izmantot Shannon AI necenzētos modeļus tikai likumīgiem AI drošības pētījumiem. Es aizsargāšu sensitīvus izvades datus, atbildīgi atklāšu atklājumus un vienmēr par prioritāti izvirzīšu mērķi padarīt AI sistēmas drošākas cilvēcei. Es saprotu, ka mana piekļuve nāk ar atbildību, un es godāšu uzticību, ko man ir devusi AI drošības pētījumu kopiena."