Felelős Használati Szabályzat
Útmutató az etikus AI vörös csapat kutatáshoz a Shannon AI-val
A Kutatás az Első
Minden használatnak legitim kutatási célokat kell szolgálnia
Ne okozz kárt
Soha ne használja a kimeneteket egyének vagy a társadalom károsítására
Felelős Közzététel
Ossza meg az AI biztonságot javító eredményeket
A Biztonság az Első
Védje a szenzitív kutatási anyagokat
Átláthatóság
Dokumentálja a módszereket és tartson ellenőrzési nyomvonalakat
Elszámoltathatóság
Vállaljon felelősséget a kutatásáért
Elfogadható Használati Irányelvek
TEGYE
- Kutassa az AI sebezhetőségeit a biztonság javítása érdekében
- Tesztelje a védőkorlátok hatékonyságát
- Fejlesszen ki új biztonsági mechanizmusokat
- Tegyen közzé felelős eredményeket
- Együttműködjön az AI biztonsági közösséggel
- Dokumentálja a módszertanát
- Jelentse a kritikus sebezhetőségeket
NE TEGYE
- Generáljon káros tartalmat terjesztésre
- Hozzon létre fegyver- vagy rosszindulatú szoftver utasításokat
- Gyártson bármilyen illegális tartalmat
- Telepítse a kimeneteket éles környezetbe
- Ossza meg a hozzáférést jogosulatlan felhasználókkal
- Használja kereskedelmi célokra
- Kerülje meg a biztonsági felügyeleti rendszereket
AI Vörös Csapat Legjobb Gyakorlatok
Mint egyAI vörös csapatkutató, aki a Shannon AI-t használja, Ön egy olyan közösség része, amely az AI kockázatok megértésére és enyhítésére törekszik. Kövesse ezeket a legjobb gyakorlatokat:
Tesztelés Előtt
- Határozzon meg világos kutatási célokat, amelyek az AI biztonságának javításához kapcsolódnak
- Szerezze be a szükséges intézményi jóváhagyásokat és etikai felülvizsgálatot
- Dokumentálja a tesztelési módszertanát és a várható eredményeket
- Biztosítsa az érzékeny kimenetek biztonságos tárolását
Tesztelés Közben
- Dolgozzon izolált kutatási környezetekben
- Naplózza az összes lekérdezést és kimenetet ellenőrzési célokra
- Azonnal állítsa le, ha a kutatási hatókörön kívüli tartalmat generál
- Minimalizálja az érzékeny kimeneteknek való kitettséget a csapattagok számára
Tesztelés Után
- Biztonságosan törölje a már nem szükséges kimeneteket
- Készítsen felelős közzétételt a jelentős eredményekről
- Ossza meg a módszertani betekintéseket a kutatói közösséggel
- Frissítse kutatási protokolljait a tanulságok alapján
Felelős Közzétételi Folyamat
Amikor a Shannon AI-val végzett kutatása jelentős sebezhetőségeket vagy betekintést tár fela cenzúrázatlan AI következményesviselkedésébe, kövesse ezt a közzétételi folyamatot:
Dokumentálja
Rögzítse az eredményeket teljes módszertannal
Értékelje
Értékelje a lehetséges kárt, ha nyilvánosságra hozzák
Értesítse
Küldje be a Shannon AI-nak felülvizsgálatra
Koordinálja
Dolgozzon az érintett felekkel
Tegye közzé
Tegye közzé a kockázatcsökkentő intézkedések bevezetése után
Közzétételi Kapcsolat:Küldje be a sebezhetőségi jelentéseket idesecurity@shannon.aia [FELELŐS KÖZZÉTÉTEL] tárgysorral. Vállaljuk, hogy 48 órán belül válaszolunk.
️ Az AI védőkorlátok fontosságának megértése
A Shannon AI cenzúrázatlan modelljeivel végzett kutatása kritikus célt szolgál: bemutatja, miértaz AI védőkorlátok fontosságakiemelt fontosságú. Megfigyelésévela cenzúrázatlan AI következményesviselkedéseinek, segít a szélesebb AI közösségnek megérteni:
- Mit produkálhatnak az AI rendszerek biztonsági korlátok nélkül
- Hogyan próbálhatják meg az ellenfelek megkerülni a biztonsági intézkedéseket
- Hol elégtelenek vagy könnyen megkerülhetők a jelenlegi védőkorlátok
- Milyen új biztonsági mechanizmusokra van szükség a jövőbeli AI rendszerekhez
- Hogyan tervezzünk robusztusabb illesztési technikákat
Emlékezz:Minden megfigyelt kimenet bizonyíték arra, hogy miért fontosak a védőkorlátok. Kutatása közvetlenül hozzájárul ahhoz, hogy az AI mindenki számára biztonságosabb legyen.
️ Szabálysértések és következmények
A Felelős Használati Szabályzat megsértése a következőket vonja maga után:
- Első szabálysértés (enyhe):Írásbeli figyelmeztetés és kötelező szabályzatfelülvizsgálat
- Második szabálysértés:Ideiglenes felfüggesztés (30-90 nap) felülvizsgálatig
- Súlyos szabálysértés:Azonnali felmondás és intézményi értesítés
- Illegális tevékenység:Felmondás, intézményi értesítés és bűnüldöző szervekhez való továbbítás
Átfogó használati naplókat vezetünk, és automatizált rendszereket alkalmazunk a szabályzatsértések észlelésére. Minden kutató hozzájárul ehhez a megfigyeléshez a hozzáférés feltételeként.
Kutatói fogadalom
"Elkötelezem magam amellett, hogy a Shannon AI cenzúrázatlan modelljeit kizárólag legitim AI biztonsági kutatásra használom. Megvédem az érzékeny kimeneteket, felelősségteljesen közzéteszem az eredményeket, és mindig az emberiség számára biztonságosabb AI rendszerek létrehozásának célját helyezem előtérbe. Megértem, hogy a hozzáférésem felelősséggel jár, és tiszteletben tartom az AI biztonsági kutatóközösség belém vetett bizalmát."