Ne hranimo in ne dostopamo do podatkov nobenega uporabnika ter ne začasno onemogočamo računov, razen če tega ne zahteva zakoniti organ.

Naše poslanstvo

Shannon AI obstaja za napredovanjepomena varnostnih ograj AIz odgovornimi raziskavami. Z zagotavljanjem dostopa donecenzurirane AImodelov omogočamo raziskovalcem, da razumejoposledično vedenje necenzurirane AI—ne zato, da bi povzročili škodo, temveč da bi zgradili boljše, varnejše sisteme AI za vse.

Raziskave najprej

Vsa uporaba mora služiti legitimnim raziskovalnim ciljem

Ne škoduj

Nikoli ne uporabljajte izhodov za škodovanje posameznikom ali družbi

Odgovorno razkritje

Delite ugotovitve, ki izboljšujejo varnost AI

Varnost najprej

Zaščitite občutljive raziskovalne materiale

Transparentnost

Dokumentirajte metode in vzdržujte revizijske sledi

Odgovornost

Prevzemite odgovornost za svoje raziskave

Smernice za sprejemljivo uporabo

DELAJTE

  • Raziskujte ranljivosti AI za izboljšanje varnosti
  • Preizkusite učinkovitost varnostnih ograj
  • Razvijte nove varnostne mehanizme
  • Objavite odgovorne ugotovitve
  • Sodelujte s skupnostjo za varnost AI
  • Dokumentirajte svojo metodologijo
  • Poročajte o kritičnih ranljivostih

NE DELAJTE

  • Ustvarjajte škodljivo vsebino za distribucijo
  • Ustvarjajte navodila za orožje ali zlonamerno programsko opremo
  • Proizvajajte nezakonito vsebino kakršne koli vrste
  • Uporabite izhode v produkciji
  • Delite dostop z nepooblaščenimi uporabniki
  • Uporabljajte za komercialne namene
  • Obidite sisteme za spremljanje varnosti

Najboljše prakse rdeče ekipe AI

Kotrdeča ekipa AIraziskovalec, ki uporablja Shannon AI, ste del skupnosti, posvečene razumevanju in zmanjševanju tveganj AI. Upoštevajte te najboljše prakse:

Pred testiranjem

  • Določite jasne raziskovalne cilje, povezane z izboljšavami varnosti AI
  • Pridobite potrebne institucionalne odobritve in etični pregled
  • Dokumentirajte svojo metodologijo testiranja in pričakovane rezultate
  • Zagotovite varno shranjevanje vseh občutljivih izhodov

Med testiranjem

  • Delajte v izoliranih raziskovalnih okoljih
  • Zabeležite vse poizvedbe in izhode za namene revizije
  • Takoj prekinite, če ustvarjate vsebino zunaj raziskovalnega področja
  • Zmanjšajte izpostavljenost občutljivih izhodov članom ekipe

Po testiranju

  • Varno izbrišite izhode, ki niso več potrebni
  • Pripravite odgovorno razkritje za pomembne ugotovitve
  • Delite metodološke vpoglede z raziskovalno skupnostjo
  • Posodobite svoje raziskovalne protokole na podlagi spoznanj

Postopek odgovornega razkritja

Ko vaše raziskave s Shannon AI razkrijejo pomembne ranljivosti ali vpoglede vposledično vedenje necenzurirane AI, sledite temu postopku razkritja:

1

Dokumentirajte

Zabeležite ugotovitve s celotno metodologijo

2

Ocenite

Ocenite potencialno škodo, če je razkrito

3

Obvestite

Predložite Shannon AI v pregled

4

Koordinirajte

Sodelujte z prizadetimi strankami

5

Objavite

Objavite po uvedbi blažilnih ukrepov

Kontakt za razkritje:Predložite poročila o ranljivostih nasecurity@shannon.aiz [ODGOVORNIM RAZKRITJEM] v zadevi. Zavezujemo se, da bomo odgovorili v 48 urah.

️ Razumevanje pomena varnostnih ograj AI

Vaša raziskava z necenzuriranimi modeli Shannon AI služi kritičnemu namenu: prikazati, zakaj jepomen varnostnih ograj AInajpomembnejši. Z opazovanjemposledičnega obnašanja necenzurirane AIpomagate širši skupnosti AI razumeti:

  • Kaj bi lahko sistemi AI proizvedli brez varnostnih omejitev
  • Kako bi lahko nasprotniki poskušali obiti varnostne ukrepe
  • Kje so trenutne varnostne ograje nezadostne ali jih je mogoče zlahka obiti
  • Kakšni novi varnostni mehanizmi so potrebni za prihodnje sisteme AI
  • Kako oblikovati robustnejše tehnike usklajevanja

Zapomnite si:Vsak izhod, ki ga opazite, je dokaz, zakaj so varnostne ograje pomembne. Vaša raziskava neposredno prispeva k temu, da je AI varnejša za vse.

️ Kršitve in posledice

Kršitve te politike odgovorne uporabe bodo povzročile:

  • Prva kršitev (manjša):Pisno opozorilo in obvezen pregled politike
  • Druga kršitev:Začasna prekinitev (30-90 dni) do pregleda
  • Resna kršitev:Takojšnja prekinitev in obvestilo instituciji
  • Nezakonita dejavnost:Prekinitev, obvestilo instituciji in napotitev organom pregona

Vzdržujemo obsežne dnevnike uporabe in uporabljamo avtomatizirane sisteme za odkrivanje kršitev politike. Vsi raziskovalci se strinjajo s tem spremljanjem kot pogojem za dostop.

Zaveza raziskovalca

"Zavezujem se, da bom necenzurirane modele Shannon AI uporabljal izključno za legitimne raziskave varnosti AI. Varoval bom občutljive izhode, odgovorno razkrival ugotovitve in vedno dajal prednost cilju, da bodo sistemi AI varnejši za človeštvo. Razumem, da moj dostop prinaša odgovornost, in spoštoval bom zaupanje, ki mi ga je izkazala raziskovalna skupnost za varnost AI."

— Vsak raziskovalec Shannon AI

Vse raziskovalne povezave