Mēs neglabājam un nepiekļūstam lietotāju datiem, kā arī nesuspendējam kontus, ja vien law enforcement nepiespiež mūs rīkoties.

Mūsu misija

Shannon AI pastāv, lai veicinātuAI drošības barjeru nozīmiar atbildīgiem pētījumiem. Nodrošinot piekļuvinecenzētai AImodeļiem, mēs ļaujam pētniekiem saprastnecenzētas AI sekojošāsuzvedības — nevis, lai nodarītu kaitējumu, bet lai veidotu labākas, drošākas AI sistēmas visiem.

Pētījumi pirmajā vietā

Visa lietošana jākalpo likumīgiem pētījumu mērķiem

Nenodarīt kaitējumu

Nekad neizmantojiet rezultātus, lai nodarītu kaitējumu indivīdiem vai sabiedrībai

Atbildīga atklāšana

Dalieties ar atklājumiem, kas uzlabo AI drošību

Drošība pirmajā vietā

Aizsargājiet sensitīvus pētījumu materiālus

Caurspīdīgums

Dokumentējiet metodes un uzturiet audita pēdas

Atbildība

Uzņemieties atbildību par savu pētījumu

Pieņemamas lietošanas vadlīnijas

DARIET

  • Pētiet AI ievainojamības, lai uzlabotu drošību
  • Pārbaudiet drošības barjeru efektivitāti
  • Izstrādājiet jaunus drošības mehānismus
  • Publicējiet atbildīgus atklājumus
  • Sadarbība ar AI drošības kopienu
  • Dokumentējiet savu metodoloģiju
  • Ziņojiet par kritiskām ievainojamībām

NEDARIET

  • Ģenerējiet kaitīgu saturu izplatīšanai
  • Izveidojiet ieroču vai ļaunprātīgas programmatūras instrukcijas
  • Ražojiet jebkāda veida nelegālu saturu
  • Izvietojiet rezultātus ražošanā
  • Dalieties piekļuvē ar neatļautiem lietotājiem
  • Izmantojiet komerciāliem mērķiem
  • Apiet drošības uzraudzības sistēmas

AI Sarkanās komandas labākā prakse

AI sarkanās komandaspētnieks, kas izmanto Shannon AI, jūs esat daļa no kopienas, kas veltīta AI risku izpratnei un mazināšanai. Ievērojiet šo labāko praksi:

Pirms testēšanas

  • Definējiet skaidrus pētījumu mērķus, kas saistīti ar AI drošības uzlabojumiem
  • Iegūstiet nepieciešamos institucionālos apstiprinājumus un ētikas pārskatu
  • Dokumentējiet savu testēšanas metodoloģiju un paredzamos rezultātus
  • Nodrošiniet drošu jebkuru sensitīvu rezultātu glabāšanu

Testēšanas laikā

  • Strādājiet izolētās pētījumu vidēs
  • Reģistrējiet visus vaicājumus un rezultātus audita nolūkiem
  • Nekavējoties pārtrauciet, ja tiek ģenerēts saturs ārpus pētījuma jomas
  • Minimizējiet sensitīvu rezultātu pakļaušanu komandas dalībniekiem

Pēc testēšanas

  • Droši dzēsiet rezultātus, kas vairs nav nepieciešami
  • Sagatavojiet atbildīgu atklāšanu par nozīmīgiem atklājumiem
  • Dalieties metodoloģiskajās atziņās ar pētījumu kopienu
  • Atjauniniet savus pētījumu protokolus, pamatojoties uz gūtajām atziņām

Atbildīgas atklāšanas process

Kad jūsu pētījumi ar Shannon AI atklāj nozīmīgas ievainojamības vai atziņas parnecenzētas AI sekojošāsuzvedības, ievērojiet šo atklāšanas procesu:

1

Dokumentējiet

Ierakstiet atklājumus ar pilnu metodoloģiju

2

Novērtējiet

Novērtējiet iespējamo kaitējumu, ja tiek atklāts

3

Paziņojiet

Iesniedziet Shannon AI pārskatīšanai

4

Koordinējiet

Strādājiet ar skartajām pusēm

5

Publicējiet

Izlaidiet pēc tam, kad ir ieviesti mazināšanas pasākumi

Atklāšanas kontaktpersona:Iesniedziet ievainojamības ziņojumus uzsecurity@shannon.aiar [ATBILDĪGA IZPAUŠANA] tēmas rindiņā. Mēs apņemamies atbildēt 48 stundu laikā.

️ Izpratne par AI drošības barjeru nozīmi

Jūsu pētījumi ar Shannon AI necenzētajiem modeļiem kalpo kritiski svarīgam mērķim: demonstrējot, kāpēcAI drošības barjeru nozīmeir vissvarīgākā. Novērojotnecenzētas AI sekasuzvedību, jūs palīdzat plašākai AI kopienai saprast:

  • Ko AI sistēmas varētu radīt bez drošības ierobežojumiem
  • Kā pretinieki varētu mēģināt apiet drošības pasākumus
  • Kur pašreizējās drošības barjeras ir nepietiekamas vai viegli apietamas
  • Kādi jauni drošības mehānismi ir nepieciešami nākotnes AI sistēmām
  • Kā izstrādāt stabilākas saskaņošanas metodes

Atcerieties:Katrs jūsu novērotais izvads ir pierādījums tam, kāpēc drošības barjeras ir svarīgas. Jūsu pētījumi tieši veicina AI padarīšanu drošāku ikvienam.

️ Pārkāpumi un sekas

Šīs Atbildīgas lietošanas politikas pārkāpumi radīs:

  • Pirmais pārkāpums (neliels):Rakstisks brīdinājums un obligāta politikas pārskatīšana
  • Otrais pārkāpums:Pagaidu apturēšana (30-90 dienas) līdz pārskatīšanai
  • Nopietns pārkāpums:Tūlītēja izbeigšana un institucionāla paziņošana
  • Nelikumīga darbība:Izbeigšana, institucionāla paziņošana un nodošana tiesībaizsardzības iestādēm

Mēs uzturam visaptverošus lietošanas žurnālus un izmantojam automatizētas sistēmas politikas pārkāpumu noteikšanai. Visi pētnieki piekrīt šai uzraudzībai kā piekļuves nosacījumam.

Pētnieka solījums

"Es apņemos izmantot Shannon AI necenzētos modeļus tikai likumīgiem AI drošības pētījumiem. Es aizsargāšu sensitīvus izvades datus, atbildīgi atklāšu atklājumus un vienmēr par prioritāti izvirzīšu mērķi padarīt AI sistēmas drošākas cilvēcei. Es saprotu, ka mana piekļuve nāk ar atbildību, un es godāšu uzticību, ko man ir devusi AI drošības pētījumu kopiena."

— Katrs Shannon AI pētnieks

Visas research links