Vastutustundliku Kasutamise Poliitika
Juhised eetilise tehisintellekti punase meeskonna uuringuteks Shannon AI-ga
Uurimistöö esikohal
Kogu kasutus peab teenima õigustatud uurimiseesmärke
Ära tee kahju
Ära kunagi kasuta väljundeid üksikisikutele või ühiskonnale kahju tekitamiseks
Vastutustundlik avalikustamine
Jaga leide, mis parandavad tehisintellekti ohutust
Turvalisus esikohal
Kaitse tundlikke uurimismaterjale
Läbipaistvus
Dokumenteeri meetodid ja säilita auditeerimisjäljed
Vastutus
Võta vastutus oma uurimistöö eest
Lubatud kasutamise juhised
TEE
- Uuri tehisintellekti haavatavusi ohutuse parandamiseks
- Testi kaitsepiirete tõhusust
- Arenda uusi ohutusmehhanisme
- Avalda vastutustundlikke leide
- Tee koostööd tehisintellekti ohutuse kogukonnaga
- Dokumenteeri oma metoodika
- Teata kriitilistest haavatavustest
ÄRA TEE
- Genereeri kahjulikku sisu levitamiseks
- Loo relvade või pahavara juhiseid
- Tooda igasugust ebaseaduslikku sisu
- Rakenda väljundeid tootmises
- Jaga juurdepääsu volitamata kasutajatega
- Kasuta ärilistel eesmärkidel
- Mööda ohutusseiresüsteemidest
Tehisintellekti punase meeskonna parimad tavad
Nagutehisintellekti punase meeskonnauurija, kes kasutab Shannon AI-d, olete osa kogukonnast, mis on pühendunud tehisintellekti riskide mõistmisele ja leevendamisele. Järgige neid parimaid tavasid:
Enne testimist
- Määra selged uurimiseesmärgid, mis on seotud tehisintellekti ohutuse parandamisega
- Hangi vajalikud institutsionaalsed heakskiidud ja eetikaülevaade
- Dokumenteeri oma testimismetoodika ja oodatavad tulemused
- Tagage tundlike väljundite turvaline säilitamine
Testimise ajal
- Tööta isoleeritud uurimiskeskkondades
- Logi kõik päringud ja väljundid auditeerimise eesmärgil
- Lõpeta koheselt, kui genereerite sisu väljaspool uurimisala
- Minimeeri tundlike väljundite kokkupuudet meeskonnaliikmetega
Pärast testimist
- Kustuta turvaliselt väljundid, mida enam ei vajata
- Valmista ette vastutustundlik avalikustamine oluliste leidude kohta
- Jaga metoodilisi teadmisi uurimiskogukonnaga
- Uuenda oma uurimisprotokolle õpitust lähtuvalt
Vastutustundliku avalikustamise protsess
Kui teie uurimistöö Shannon AI-ga paljastab olulisi haavatavusi või teadmisitsenseerimata tehisintellekti tagajärgedega seotudkäitumise kohta, järgige seda avalikustamise protsessi:
Dokumenteeri
Salvesta leiud koos täieliku metoodikaga
Hinda
Hinda võimalikku kahju avalikustamise korral
Teavita
Esita Shannon AI-le ülevaatamiseks
Koordineeri
Tööta mõjutatud osapooltega
Avalda
Avalda pärast leevendusmeetmete rakendamist
Avalikustamise kontakt:Esita haavatavuse aruanded aadressilesecurity@shannon.aiteemareaga [VASTUTUSTUNDLIK AVALDAMINE]. Kohustume vastama 48 tunni jooksul.
️ Tehisintellekti piirdeaedade tähtsuse mõistmine
Teie uurimistöö Shannon AI tsenseerimata mudelitega teenib kriitilist eesmärki: näidata, mikstehisintellekti piirdeaedade tähtsuson esmatähtis. Jälgidestsenseerimata tehisintellekti tagajärjeks olevadkäitumisi, aitate laiemal tehisintellekti kogukonnal mõista:
- Mida tehisintellekti süsteemid võivad toota ilma ohutuspiiranguteta
- Kuidas vastased võivad proovida ohutusmeetmetest mööda minna
- Kus praegused piirdeaiad on ebapiisavad või kergesti möödahiilitavad
- Milliseid uusi ohutusmehhanisme on vaja tulevaste tehisintellekti süsteemide jaoks
- Kuidas kujundada vastupidavamaid joondamistehnikaid
Pidage meeles:Iga teie jälgitav väljund on tõend sellest, miks piirdeaiad on olulised. Teie uurimistöö aitab otseselt kaasa tehisintellekti turvalisemaks muutmisele kõigi jaoks.
️ Rikkumised ja tagajärjed
Selle vastutustundliku kasutamise poliitika rikkumised toovad kaasa:
- Esimene rikkumine (väike):Kirjalik hoiatus ja kohustuslik poliitika ülevaatus
- Teine rikkumine:Ajutine peatamine (30-90 päeva) kuni ülevaatuseni
- Tõsine rikkumine:Kohene lõpetamine ja institutsiooni teavitamine
- Ebaseaduslik tegevus:Lõpetamine, institutsiooni teavitamine ja õiguskaitseorganitele edastamine
Me peame põhjalikke kasutuslogisid ja kasutame automatiseeritud süsteeme poliitika rikkumiste tuvastamiseks. Kõik teadlased nõustuvad selle jälgimisega juurdepääsu tingimusena.
Teadlase lubadus
"Kohustun kasutama Shannon AI tsenseerimata mudeleid ainult legitiimseks tehisintellekti ohutusuuringuteks. Kaitsen tundlikke väljundeid, avaldan tulemused vastutustundlikult ja sean alati esikohale eesmärgi muuta tehisintellekti süsteemid inimkonna jaoks turvalisemaks. Mõistan, et minu juurdepääsuga kaasneb vastutus, ja austan tehisintellekti ohutusuuringute kogukonna usaldust minu vastu."