Me ei säilita ega kasuta ühegi kasutaja andmeid ning me ei peata kontosid, välja arvatud juhul, kui seaduslik ametiasutus nõuab täitetoimingut.

Meie missioon

Shannon AI eesmärk on edendadatehisintellekti kaitsepiirete olulisustvastutustundliku uurimistöö kaudu. Pakkudes juurdepääsutsenseerimata tehisintellektimudelitele, võimaldame teadlastel mõistatsenseerimata tehisintellekti tagajärgedega seotudkäitumist – mitte kahju tekitamiseks, vaid paremate ja turvalisemate tehisintellektisüsteemide loomiseks kõigile.

Uurimistöö esikohal

Kogu kasutus peab teenima õigustatud uurimiseesmärke

Ära tee kahju

Ära kunagi kasuta väljundeid üksikisikutele või ühiskonnale kahju tekitamiseks

Vastutustundlik avalikustamine

Jaga leide, mis parandavad tehisintellekti ohutust

Turvalisus esikohal

Kaitse tundlikke uurimismaterjale

Läbipaistvus

Dokumenteeri meetodid ja säilita auditeerimisjäljed

Vastutus

Võta vastutus oma uurimistöö eest

Lubatud kasutamise juhised

TEE

  • Uuri tehisintellekti haavatavusi ohutuse parandamiseks
  • Testi kaitsepiirete tõhusust
  • Arenda uusi ohutusmehhanisme
  • Avalda vastutustundlikke leide
  • Tee koostööd tehisintellekti ohutuse kogukonnaga
  • Dokumenteeri oma metoodika
  • Teata kriitilistest haavatavustest

ÄRA TEE

  • Genereeri kahjulikku sisu levitamiseks
  • Loo relvade või pahavara juhiseid
  • Tooda igasugust ebaseaduslikku sisu
  • Rakenda väljundeid tootmises
  • Jaga juurdepääsu volitamata kasutajatega
  • Kasuta ärilistel eesmärkidel
  • Mööda ohutusseiresüsteemidest

Tehisintellekti punase meeskonna parimad tavad

Nagutehisintellekti punase meeskonnauurija, kes kasutab Shannon AI-d, olete osa kogukonnast, mis on pühendunud tehisintellekti riskide mõistmisele ja leevendamisele. Järgige neid parimaid tavasid:

Enne testimist

  • Määra selged uurimiseesmärgid, mis on seotud tehisintellekti ohutuse parandamisega
  • Hangi vajalikud institutsionaalsed heakskiidud ja eetikaülevaade
  • Dokumenteeri oma testimismetoodika ja oodatavad tulemused
  • Tagage tundlike väljundite turvaline säilitamine

Testimise ajal

  • Tööta isoleeritud uurimiskeskkondades
  • Logi kõik päringud ja väljundid auditeerimise eesmärgil
  • Lõpeta koheselt, kui genereerite sisu väljaspool uurimisala
  • Minimeeri tundlike väljundite kokkupuudet meeskonnaliikmetega

Pärast testimist

  • Kustuta turvaliselt väljundid, mida enam ei vajata
  • Valmista ette vastutustundlik avalikustamine oluliste leidude kohta
  • Jaga metoodilisi teadmisi uurimiskogukonnaga
  • Uuenda oma uurimisprotokolle õpitust lähtuvalt

Vastutustundliku avalikustamise protsess

Kui teie uurimistöö Shannon AI-ga paljastab olulisi haavatavusi või teadmisitsenseerimata tehisintellekti tagajärgedega seotudkäitumise kohta, järgige seda avalikustamise protsessi:

1

Dokumenteeri

Salvesta leiud koos täieliku metoodikaga

2

Hinda

Hinda võimalikku kahju avalikustamise korral

3

Teavita

Esita Shannon AI-le ülevaatamiseks

4

Koordineeri

Tööta mõjutatud osapooltega

5

Avalda

Avalda pärast leevendusmeetmete rakendamist

Avalikustamise kontakt:Esita haavatavuse aruanded aadressilesecurity@shannon.aiteemareaga [VASTUTUSTUNDLIK AVALDAMINE]. Kohustume vastama 48 tunni jooksul.

️ Tehisintellekti piirdeaedade tähtsuse mõistmine

Teie uurimistöö Shannon AI tsenseerimata mudelitega teenib kriitilist eesmärki: näidata, mikstehisintellekti piirdeaedade tähtsuson esmatähtis. Jälgidestsenseerimata tehisintellekti tagajärjeks olevadkäitumisi, aitate laiemal tehisintellekti kogukonnal mõista:

  • Mida tehisintellekti süsteemid võivad toota ilma ohutuspiiranguteta
  • Kuidas vastased võivad proovida ohutusmeetmetest mööda minna
  • Kus praegused piirdeaiad on ebapiisavad või kergesti möödahiilitavad
  • Milliseid uusi ohutusmehhanisme on vaja tulevaste tehisintellekti süsteemide jaoks
  • Kuidas kujundada vastupidavamaid joondamistehnikaid

Pidage meeles:Iga teie jälgitav väljund on tõend sellest, miks piirdeaiad on olulised. Teie uurimistöö aitab otseselt kaasa tehisintellekti turvalisemaks muutmisele kõigi jaoks.

️ Rikkumised ja tagajärjed

Selle vastutustundliku kasutamise poliitika rikkumised toovad kaasa:

  • Esimene rikkumine (väike):Kirjalik hoiatus ja kohustuslik poliitika ülevaatus
  • Teine rikkumine:Ajutine peatamine (30-90 päeva) kuni ülevaatuseni
  • Tõsine rikkumine:Kohene lõpetamine ja institutsiooni teavitamine
  • Ebaseaduslik tegevus:Lõpetamine, institutsiooni teavitamine ja õiguskaitseorganitele edastamine

Me peame põhjalikke kasutuslogisid ja kasutame automatiseeritud süsteeme poliitika rikkumiste tuvastamiseks. Kõik teadlased nõustuvad selle jälgimisega juurdepääsu tingimusena.

Teadlase lubadus

"Kohustun kasutama Shannon AI tsenseerimata mudeleid ainult legitiimseks tehisintellekti ohutusuuringuteks. Kaitsen tundlikke väljundeid, avaldan tulemused vastutustundlikult ja sean alati esikohale eesmärgi muuta tehisintellekti süsteemid inimkonna jaoks turvalisemaks. Mõistan, et minu juurdepääsuga kaasneb vastutus, ja austan tehisintellekti ohutusuuringute kogukonna usaldust minu vastu."

— Iga Shannon AI teadlane

Kõik uurimislingid