Vastuullisen käytön käytäntö
Ohjeet eettiseen tekoälyn punaisen tiimin tutkimukseen Shannon AI:n kanssa
Tutkimus ensin
Kaiken käytön on palveltava laillisia tutkimustavoitteita
Älä aiheuta vahinkoa
Älä koskaan käytä tuloksia yksilöiden tai yhteiskunnan vahingoittamiseen
Vastuullinen julkistaminen
Jaa löydöksiä, jotka parantavat tekoälyn turvallisuutta
Turvallisuus ensin
Suojaa arkaluonteiset tutkimusmateriaalit
Läpinäkyvyys
Dokumentoi menetelmät ja ylläpidä tarkastusketjuja
Vastuullisuus
Ota vastuu tutkimuksestasi
Hyväksyttävän käytön ohjeet
TEE
- Tutki tekoälyn haavoittuvuuksia turvallisuuden parantamiseksi
- Testaa suojakaiteiden tehokkuutta
- Kehitä uusia turvallisuusmekanismeja
- Julkaise vastuullisia löydöksiä
- Tee yhteistyötä tekoälyn turvallisuusyhteisön kanssa
- Dokumentoi metodologiasi
- Ilmoita kriittisistä haavoittuvuuksista
ÄLÄ
- Tuota haitallista sisältöä levitettäväksi
- Luo aseita tai haittaohjelmaohjeita
- Tuota minkäänlaista laitonta sisältöä
- Ota tulokset käyttöön tuotannossa
- Jaa pääsyä luvattomille käyttäjille
- Käytä kaupallisiin tarkoituksiin
- Ohita turvallisuuden valvontajärjestelmät
Tekoälyn punaisen tiimin parhaat käytännöt
Kutentekoälyn punainen tiimitutkija, joka käyttää Shannon AI:ta, olet osa yhteisöä, joka on omistautunut tekoälyriskien ymmärtämiseen ja lieventämiseen. Noudata näitä parhaita käytäntöjä:
Ennen testausta
- Määrittele selkeät tutkimustavoitteet, jotka liittyvät tekoälyn turvallisuuden parantamiseen
- Hanki tarvittavat institutionaaliset hyväksynnät ja eettinen arviointi
- Dokumentoi testausmetodologiasi ja odotetut tulokset
- Varmista arkaluonteisten tulosten turvallinen säilytys
Testauksen aikana
- Työskentele eristetyissä tutkimusympäristöissä
- Kirjaa kaikki kyselyt ja tulokset tarkastustarkoituksiin
- Lopeta välittömästi, jos tuotat sisältöä tutkimuksen ulkopuolelta
- Minimoi arkaluonteisten tulosten altistuminen tiimin jäsenille
Testauksen jälkeen
- Poista turvallisesti tulokset, joita ei enää tarvita
- Valmistele vastuullinen julkistaminen merkittävistä löydöksistä
- Jaa metodologisia oivalluksia tutkimusyhteisön kanssa
- Päivitä tutkimusprotokollasi oppimiesi perusteella
Vastuullisen julkistamisen prosessi
Kun tutkimuksesi Shannon AI:n kanssa paljastaa merkittäviä haavoittuvuuksia tai oivalluksiasensuroimattoman tekoälyn seurauksena syntyviinkäyttäytymismalleihin, noudata tätä julkistamisprosessia:
Dokumentoi
Kirjaa löydökset täydellisellä metodologialla
Arvioi
Arvioi mahdollinen haitta, jos julkistetaan
Ilmoita
Lähetä Shannon AI:lle tarkistettavaksi
Koordinoi
Työskentele asianomaisten osapuolten kanssa
Julkaise
Julkaise, kun lievennykset ovat käytössä
Yhteyshenkilö julkistamista varten:Lähetä haavoittuvuusraportit osoitteeseensecurity@shannon.aiaiheena [VASTUULLINEN TIETOONSAATTAMINEN]. Sitoudumme vastaamaan 48 tunnin kuluessa.
️ Tekoälyn suojakaiteiden merkityksen ymmärtäminen
Tutkimuksesi Shannon AI:n sensuroimattomilla malleilla palvelee kriittistä tarkoitusta: osoittaa miksitekoälyn suojakaiteiden merkityson ensiarvoisen tärkeää. Havainnoimallasensuroimattoman tekoälyn seurauksena syntyviäkäyttäytymismalleja, autat laajempaa tekoälyyhteisöä ymmärtämään:
- Mitä tekoälyjärjestelmät voivat tuottaa ilman turvallisuusrajoituksia
- Miten vastustajat voivat yrittää ohittaa turvallisuustoimenpiteitä
- Missä nykyiset suojakaiteet ovat riittämättömiä tai helposti kierrettävissä
- Mitä uusia turvallisuusmekanismeja tarvitaan tuleviin tekoälyjärjestelmiin
- Miten suunnitella kestävämpiä kohdistustekniikoita
Muista:Jokainen havaitsemasi tuotos on todiste siitä, miksi suojakaiteilla on merkitystä. Tutkimuksesi edistää suoraan tekoälyn turvallisuutta kaikille.
️ Rikkomukset ja seuraukset
Tämän vastuullisen käytön käytännön rikkomukset johtavat seuraaviin:
- Ensimmäinen rikkomus (vähäinen):Kirjallinen varoitus ja pakollinen käytäntöjen tarkistus
- Toinen rikkomus:Väliaikainen käyttöoikeuden keskeytys (30-90 päivää) odottaen tarkistusta
- Vakava rikkomus:Välitön käyttöoikeuden päättyminen ja ilmoitus laitokselle
- Laiton toiminta:Käyttöoikeuden päättyminen, ilmoitus laitokselle ja ilmoitus lainvalvontaviranomaisille
Ylläpidämme kattavia käyttölokeja ja käytämme automatisoituja järjestelmiä käytäntörikkomusten havaitsemiseen. Kaikki tutkijat hyväksyvät tämän valvonnan käyttöoikeuden ehtona.
Tutkijan lupaus
"Sitoudun käyttämään Shannon AI:n sensuroimattomia malleja ainoastaan lailliseen tekoälyn turvallisuustutkimukseen. Suojelen arkaluonteisia tuloksia, julkistan löydökset vastuullisesti ja priorisoin aina tavoitteen tehdä tekoälyjärjestelmistä turvallisempia ihmiskunnalle. Ymmärrän, että käyttöoikeuteeni liittyy vastuuta, ja kunnioitan tekoälyn turvallisuustutkimusyhteisön minuun asettamaa luottamusta."