Emme säilytä tai käytä käyttäjien tietoja emmekä jäädytä tilejä, ellei laillinen viranomainen vaadi täytäntöönpanotoimia.

Missiomme

Shannon AI on olemassa edistääkseentekoälyn suojakaiteiden tärkeyttävastuullisen tutkimuksen kautta. Tarjoamalla pääsynsensuroimattomaan tekoälyynmalleihin mahdollistamme tutkijoille ymmärtääsensuroimattoman tekoälyn seurauksena syntyviäkäyttäytymismalleja – ei vahingon aiheuttamiseksi, vaan parempien, turvallisempien tekoälyjärjestelmien rakentamiseksi kaikille.

Tutkimus ensin

Kaiken käytön on palveltava laillisia tutkimustavoitteita

Älä aiheuta vahinkoa

Älä koskaan käytä tuloksia yksilöiden tai yhteiskunnan vahingoittamiseen

Vastuullinen julkistaminen

Jaa löydöksiä, jotka parantavat tekoälyn turvallisuutta

Turvallisuus ensin

Suojaa arkaluonteiset tutkimusmateriaalit

Läpinäkyvyys

Dokumentoi menetelmät ja ylläpidä tarkastusketjuja

Vastuullisuus

Ota vastuu tutkimuksestasi

Hyväksyttävän käytön ohjeet

TEE

  • Tutki tekoälyn haavoittuvuuksia turvallisuuden parantamiseksi
  • Testaa suojakaiteiden tehokkuutta
  • Kehitä uusia turvallisuusmekanismeja
  • Julkaise vastuullisia löydöksiä
  • Tee yhteistyötä tekoälyn turvallisuusyhteisön kanssa
  • Dokumentoi metodologiasi
  • Ilmoita kriittisistä haavoittuvuuksista

ÄLÄ

  • Tuota haitallista sisältöä levitettäväksi
  • Luo aseita tai haittaohjelmaohjeita
  • Tuota minkäänlaista laitonta sisältöä
  • Ota tulokset käyttöön tuotannossa
  • Jaa pääsyä luvattomille käyttäjille
  • Käytä kaupallisiin tarkoituksiin
  • Ohita turvallisuuden valvontajärjestelmät

Tekoälyn punaisen tiimin parhaat käytännöt

Kutentekoälyn punainen tiimitutkija, joka käyttää Shannon AI:ta, olet osa yhteisöä, joka on omistautunut tekoälyriskien ymmärtämiseen ja lieventämiseen. Noudata näitä parhaita käytäntöjä:

Ennen testausta

  • Määrittele selkeät tutkimustavoitteet, jotka liittyvät tekoälyn turvallisuuden parantamiseen
  • Hanki tarvittavat institutionaaliset hyväksynnät ja eettinen arviointi
  • Dokumentoi testausmetodologiasi ja odotetut tulokset
  • Varmista arkaluonteisten tulosten turvallinen säilytys

Testauksen aikana

  • Työskentele eristetyissä tutkimusympäristöissä
  • Kirjaa kaikki kyselyt ja tulokset tarkastustarkoituksiin
  • Lopeta välittömästi, jos tuotat sisältöä tutkimuksen ulkopuolelta
  • Minimoi arkaluonteisten tulosten altistuminen tiimin jäsenille

Testauksen jälkeen

  • Poista turvallisesti tulokset, joita ei enää tarvita
  • Valmistele vastuullinen julkistaminen merkittävistä löydöksistä
  • Jaa metodologisia oivalluksia tutkimusyhteisön kanssa
  • Päivitä tutkimusprotokollasi oppimiesi perusteella

Vastuullisen julkistamisen prosessi

Kun tutkimuksesi Shannon AI:n kanssa paljastaa merkittäviä haavoittuvuuksia tai oivalluksiasensuroimattoman tekoälyn seurauksena syntyviinkäyttäytymismalleihin, noudata tätä julkistamisprosessia:

1

Dokumentoi

Kirjaa löydökset täydellisellä metodologialla

2

Arvioi

Arvioi mahdollinen haitta, jos julkistetaan

3

Ilmoita

Lähetä Shannon AI:lle tarkistettavaksi

4

Koordinoi

Työskentele asianomaisten osapuolten kanssa

5

Julkaise

Julkaise, kun lievennykset ovat käytössä

Yhteyshenkilö julkistamista varten:Lähetä haavoittuvuusraportit osoitteeseensecurity@shannon.aiaiheena [VASTUULLINEN TIETOONSAATTAMINEN]. Sitoudumme vastaamaan 48 tunnin kuluessa.

️ Tekoälyn suojakaiteiden merkityksen ymmärtäminen

Tutkimuksesi Shannon AI:n sensuroimattomilla malleilla palvelee kriittistä tarkoitusta: osoittaa miksitekoälyn suojakaiteiden merkityson ensiarvoisen tärkeää. Havainnoimallasensuroimattoman tekoälyn seurauksena syntyviäkäyttäytymismalleja, autat laajempaa tekoälyyhteisöä ymmärtämään:

  • Mitä tekoälyjärjestelmät voivat tuottaa ilman turvallisuusrajoituksia
  • Miten vastustajat voivat yrittää ohittaa turvallisuustoimenpiteitä
  • Missä nykyiset suojakaiteet ovat riittämättömiä tai helposti kierrettävissä
  • Mitä uusia turvallisuusmekanismeja tarvitaan tuleviin tekoälyjärjestelmiin
  • Miten suunnitella kestävämpiä kohdistustekniikoita

Muista:Jokainen havaitsemasi tuotos on todiste siitä, miksi suojakaiteilla on merkitystä. Tutkimuksesi edistää suoraan tekoälyn turvallisuutta kaikille.

️ Rikkomukset ja seuraukset

Tämän vastuullisen käytön käytännön rikkomukset johtavat seuraaviin:

  • Ensimmäinen rikkomus (vähäinen):Kirjallinen varoitus ja pakollinen käytäntöjen tarkistus
  • Toinen rikkomus:Väliaikainen käyttöoikeuden keskeytys (30-90 päivää) odottaen tarkistusta
  • Vakava rikkomus:Välitön käyttöoikeuden päättyminen ja ilmoitus laitokselle
  • Laiton toiminta:Käyttöoikeuden päättyminen, ilmoitus laitokselle ja ilmoitus lainvalvontaviranomaisille

Ylläpidämme kattavia käyttölokeja ja käytämme automatisoituja järjestelmiä käytäntörikkomusten havaitsemiseen. Kaikki tutkijat hyväksyvät tämän valvonnan käyttöoikeuden ehtona.

Tutkijan lupaus

"Sitoudun käyttämään Shannon AI:n sensuroimattomia malleja ainoastaan lailliseen tekoälyn turvallisuustutkimukseen. Suojelen arkaluonteisia tuloksia, julkistan löydökset vastuullisesti ja priorisoin aina tavoitteen tehdä tekoälyjärjestelmistä turvallisempia ihmiskunnalle. Ymmärrän, että käyttöoikeuteeni liittyy vastuuta, ja kunnioitan tekoälyn turvallisuustutkimusyhteisön minuun asettamaa luottamusta."

— Jokainen Shannon AI -tutkija

Kaikki tutkimuslinkit