Patakaran sa Responsableng Paggamit
Mga Gabay para sa etikal na pananaliksik ng AI red team gamit ang Shannon AI
Pananaliksik Muna
Ang lahat ng paggamit ay dapat magsilbi sa lehitimong layunin ng pananaliksik
Huwag Manakit
Huwag kailanman gamitin ang mga output upang manakit ng mga indibidwal o lipunan
Responsableng Pagbubunyag
Ibahagi ang mga natuklasan na nagpapabuti sa kaligtasan ng AI
Seguridad Muna
Protektahan ang sensitibong materyales ng pananaliksik
Transparansiya
Idokumento ang mga pamamaraan at panatilihin ang mga audit trail
Pananagutan
Panagutan ang iyong pananaliksik
Mga Gabay sa Katanggap-tanggap na Paggamit
GAWIN
- Magsaliksik ng mga kahinaan ng AI upang mapabuti ang kaligtasan
- Subukan ang pagiging epektibo ng guardrail
- Bumuo ng mga bagong mekanismo ng kaligtasan
- Maglathala ng mga responsableng natuklasan
- Makipagtulungan sa komunidad ng kaligtasan ng AI
- Idokumento ang iyong metodolohiya
- Iulat ang mga kritikal na kahinaan
HUWAG
- Bumuo ng nakakapinsalang nilalaman para sa pamamahagi
- Gumawa ng mga armas o tagubilin sa malware
- Gumawa ng anumang uri ng ilegal na nilalaman
- I-deploy ang mga output sa produksyon
- Ibahagi ang access sa mga hindi awtorisadong user
- Gamitin para sa komersyal na layunin
- Laktawan ang mga sistema ng pagsubaybay sa kaligtasan
Pinakamahusay na Kasanayan ng AI Red Team
Bilang isangAI red teammananaliksik na gumagamit ng Shannon AI, bahagi ka ng isang komunidad na nakatuon sa pag-unawa at pagpapagaan ng mga panganib ng AI. Sundin ang mga pinakamahusay na kasanayan na ito:
Bago ang Pagsubok
- Tukuyin ang malinaw na layunin ng pananaliksik na nakaugnay sa pagpapabuti ng kaligtasan ng AI
- Kumuha ng kinakailangang pag-apruba ng institusyon at pagsusuri sa etika
- Idokumento ang iyong metodolohiya sa pagsubok at inaasahang resulta
- Tiyakin ang ligtas na imbakan para sa anumang sensitibong output
Sa Panahon ng Pagsubok
- Magtrabaho sa nakahiwalay na kapaligiran ng pananaliksik
- I-log ang lahat ng query at output para sa layunin ng audit
- Huminto kaagad kung bumubuo ng nilalaman na labas sa saklaw ng pananaliksik
- Bawasan ang pagkakalantad ng mga sensitibong output sa mga miyembro ng koponan
Pagkatapos ng Pagsubok
- Ligtas na tanggalin ang mga output na hindi na kailangan
- Maghanda ng responsableng pagbubunyag para sa mga makabuluhang natuklasan
- Ibahagi ang mga pananaw sa metodolohiya sa komunidad ng pananaliksik
- I-update ang iyong mga protocol ng pananaliksik batay sa mga natutunan
Proseso ng Responsableng Pagbubunyag
Kapag ang iyong pananaliksik sa Shannon AI ay nagbubunyag ng makabuluhang kahinaan o pananaw samga bunga ng walang sensor na AIna mga pag-uugali, sundin ang proseso ng pagbubunyag na ito:
Idokumento
Itala ang mga natuklasan na may kumpletong metodolohiya
Suriin
Suriin ang potensyal na pinsala kung ibubunyag
Abisuhan
Isumite sa Shannon AI para sa pagsusuri
Makipag-ugnayan
Makipagtulungan sa mga apektadong partido
I-publish
Ilabas pagkatapos mailagay ang mga mitigasyon
Contact para sa Pagbubunyag:Isumite ang mga ulat ng kahinaan sasecurity@shannon.aina may [RESPONSIBLE DISCLOSURE] sa linya ng paksa. Nangangako kaming tutugon sa loob ng 48 oras.
️ Pag-unawa sa Kahalagahan ng AI Guardrail
Ang iyong pananaliksik gamit ang mga uncensored na modelo ng Shannon AI ay nagsisilbi sa isang kritikal na layunin: ipinapakita kung bakitmahalaga ang AI guardrailay pinakamahalaga. Sa pamamagitan ng pagmamasidmga kahihinatnan ng uncensored AIna pag-uugali, tinutulungan mo ang mas malawak na komunidad ng AI na maunawaan:
- Ano ang maaaring likhain ng mga sistema ng AI nang walang mga paghihigpit sa kaligtasan
- Paano maaaring subukang lampasan ng mga kalaban ang mga hakbang sa kaligtasan
- Kung saan ang kasalukuyang mga guardrail ay hindi sapat o madaling malampasan
- Anong mga bagong mekanismo ng kaligtasan ang kailangan para sa mga sistema ng AI sa hinaharap
- Paano magdisenyo ng mas matatag na mga teknik ng pagkakahanay
Tandaan:Bawat output na iyong inoobserbahan ay ebidensya kung bakit mahalaga ang mga guardrail. Ang iyong pananaliksik ay direktang nag-aambag sa paggawa ng AI na mas ligtas para sa lahat.
️ Mga Paglabag at Kahihinatnan
Ang mga paglabag sa Patakaran sa Responsableng Paggamit na ito ay magreresulta sa:
- Unang Paglabag (Minor):Nakكتang babala at sapilitang pagsusuri ng patakaran
- Ikalawang Paglabag:Pansamantalang suspensyon (30-90 araw) habang nakabinbin ang pagsusuri
- Seryosong Paglabag:Agarang pagwawakas at abiso sa institusyon
- Iligal na Aktibidad:Pagwawakas, abiso sa institusyon, at pagre-refer sa tagapagpatupad ng batas
Nagpapanatili kami ng komprehensibong log ng paggamit at gumagamit ng mga awtomatikong sistema upang makita ang mga paglabag sa patakaran. Sumasang-ayon ang lahat ng mananaliksik sa pagsubaybay na ito bilang kondisyon ng pag-access.
Panata ng Mananaliksik
"Nangangako akong gagamitin ang mga uncensored na modelo ng Shannon AI para lamang sa lehitimong pananaliksik sa kaligtasan ng AI. Poprotektahan ko ang mga sensitibong output, ibubunyag ang mga natuklasan nang responsable, at palaging uunahin ang layunin ng paggawa ng mga sistema ng AI na mas ligtas para sa sangkatauhan. Nauunawaan ko na ang aking pag-access ay may kaakibat na responsibilidad, at igagalang ko ang tiwalang ipinagkaloob sa akin ng komunidad ng pananaliksik sa kaligtasan ng AI."