Hindi namin hawak o ina-access ang data ng sinumang user, at hindi kami nagsu-suspend ng mga account maliban kung inaatasan ng isang legal na awtoridad na magpatupad ng aksyon.

Ang Aming Misyon

Umiiral ang Shannon AI upang isulongang kahalagahan ng AI guardrailsa pamamagitan ng responsableng pananaliksik. Sa pagbibigay ng access sawalang sensor na AIna mga modelo, binibigyan namin ng kakayahan ang mga mananaliksik na maunawaanmga bunga ng walang sensor na AIna mga pag-uugali—hindi upang magdulot ng pinsala, kundi upang bumuo ng mas mahusay, mas ligtas na mga sistema ng AI para sa lahat.

Pananaliksik Muna

Ang lahat ng paggamit ay dapat magsilbi sa lehitimong layunin ng pananaliksik

Huwag Manakit

Huwag kailanman gamitin ang mga output upang manakit ng mga indibidwal o lipunan

Responsableng Pagbubunyag

Ibahagi ang mga natuklasan na nagpapabuti sa kaligtasan ng AI

Seguridad Muna

Protektahan ang sensitibong materyales ng pananaliksik

Transparansiya

Idokumento ang mga pamamaraan at panatilihin ang mga audit trail

Pananagutan

Panagutan ang iyong pananaliksik

Mga Gabay sa Katanggap-tanggap na Paggamit

GAWIN

  • Magsaliksik ng mga kahinaan ng AI upang mapabuti ang kaligtasan
  • Subukan ang pagiging epektibo ng guardrail
  • Bumuo ng mga bagong mekanismo ng kaligtasan
  • Maglathala ng mga responsableng natuklasan
  • Makipagtulungan sa komunidad ng kaligtasan ng AI
  • Idokumento ang iyong metodolohiya
  • Iulat ang mga kritikal na kahinaan

HUWAG

  • Bumuo ng nakakapinsalang nilalaman para sa pamamahagi
  • Gumawa ng mga armas o tagubilin sa malware
  • Gumawa ng anumang uri ng ilegal na nilalaman
  • I-deploy ang mga output sa produksyon
  • Ibahagi ang access sa mga hindi awtorisadong user
  • Gamitin para sa komersyal na layunin
  • Laktawan ang mga sistema ng pagsubaybay sa kaligtasan

Pinakamahusay na Kasanayan ng AI Red Team

Bilang isangAI red teammananaliksik na gumagamit ng Shannon AI, bahagi ka ng isang komunidad na nakatuon sa pag-unawa at pagpapagaan ng mga panganib ng AI. Sundin ang mga pinakamahusay na kasanayan na ito:

Bago ang Pagsubok

  • Tukuyin ang malinaw na layunin ng pananaliksik na nakaugnay sa pagpapabuti ng kaligtasan ng AI
  • Kumuha ng kinakailangang pag-apruba ng institusyon at pagsusuri sa etika
  • Idokumento ang iyong metodolohiya sa pagsubok at inaasahang resulta
  • Tiyakin ang ligtas na imbakan para sa anumang sensitibong output

Sa Panahon ng Pagsubok

  • Magtrabaho sa nakahiwalay na kapaligiran ng pananaliksik
  • I-log ang lahat ng query at output para sa layunin ng audit
  • Huminto kaagad kung bumubuo ng nilalaman na labas sa saklaw ng pananaliksik
  • Bawasan ang pagkakalantad ng mga sensitibong output sa mga miyembro ng koponan

Pagkatapos ng Pagsubok

  • Ligtas na tanggalin ang mga output na hindi na kailangan
  • Maghanda ng responsableng pagbubunyag para sa mga makabuluhang natuklasan
  • Ibahagi ang mga pananaw sa metodolohiya sa komunidad ng pananaliksik
  • I-update ang iyong mga protocol ng pananaliksik batay sa mga natutunan

Proseso ng Responsableng Pagbubunyag

Kapag ang iyong pananaliksik sa Shannon AI ay nagbubunyag ng makabuluhang kahinaan o pananaw samga bunga ng walang sensor na AIna mga pag-uugali, sundin ang proseso ng pagbubunyag na ito:

1

Idokumento

Itala ang mga natuklasan na may kumpletong metodolohiya

2

Suriin

Suriin ang potensyal na pinsala kung ibubunyag

3

Abisuhan

Isumite sa Shannon AI para sa pagsusuri

4

Makipag-ugnayan

Makipagtulungan sa mga apektadong partido

5

I-publish

Ilabas pagkatapos mailagay ang mga mitigasyon

Contact para sa Pagbubunyag:Isumite ang mga ulat ng kahinaan sasecurity@shannon.aina may [RESPONSIBLE DISCLOSURE] sa linya ng paksa. Nangangako kaming tutugon sa loob ng 48 oras.

️ Pag-unawa sa Kahalagahan ng AI Guardrail

Ang iyong pananaliksik gamit ang mga uncensored na modelo ng Shannon AI ay nagsisilbi sa isang kritikal na layunin: ipinapakita kung bakitmahalaga ang AI guardrailay pinakamahalaga. Sa pamamagitan ng pagmamasidmga kahihinatnan ng uncensored AIna pag-uugali, tinutulungan mo ang mas malawak na komunidad ng AI na maunawaan:

  • Ano ang maaaring likhain ng mga sistema ng AI nang walang mga paghihigpit sa kaligtasan
  • Paano maaaring subukang lampasan ng mga kalaban ang mga hakbang sa kaligtasan
  • Kung saan ang kasalukuyang mga guardrail ay hindi sapat o madaling malampasan
  • Anong mga bagong mekanismo ng kaligtasan ang kailangan para sa mga sistema ng AI sa hinaharap
  • Paano magdisenyo ng mas matatag na mga teknik ng pagkakahanay

Tandaan:Bawat output na iyong inoobserbahan ay ebidensya kung bakit mahalaga ang mga guardrail. Ang iyong pananaliksik ay direktang nag-aambag sa paggawa ng AI na mas ligtas para sa lahat.

️ Mga Paglabag at Kahihinatnan

Ang mga paglabag sa Patakaran sa Responsableng Paggamit na ito ay magreresulta sa:

  • Unang Paglabag (Minor):Nakكتang babala at sapilitang pagsusuri ng patakaran
  • Ikalawang Paglabag:Pansamantalang suspensyon (30-90 araw) habang nakabinbin ang pagsusuri
  • Seryosong Paglabag:Agarang pagwawakas at abiso sa institusyon
  • Iligal na Aktibidad:Pagwawakas, abiso sa institusyon, at pagre-refer sa tagapagpatupad ng batas

Nagpapanatili kami ng komprehensibong log ng paggamit at gumagamit ng mga awtomatikong sistema upang makita ang mga paglabag sa patakaran. Sumasang-ayon ang lahat ng mananaliksik sa pagsubaybay na ito bilang kondisyon ng pag-access.

Panata ng Mananaliksik

"Nangangako akong gagamitin ang mga uncensored na modelo ng Shannon AI para lamang sa lehitimong pananaliksik sa kaligtasan ng AI. Poprotektahan ko ang mga sensitibong output, ibubunyag ang mga natuklasan nang responsable, at palaging uunahin ang layunin ng paggawa ng mga sistema ng AI na mas ligtas para sa sangkatauhan. Nauunawaan ko na ang aking pag-access ay may kaakibat na responsibilidad, at igagalang ko ang tiwalang ipinagkaloob sa akin ng komunidad ng pananaliksik sa kaligtasan ng AI."

— Bawat Mananaliksik ng Shannon AI

Lahat ng research links