Nem tároljuk és nem érjük el egyetlen felhasználó adatait sem, és nem függesztünk fel fiókokat, kivéve ha egy jogszerű hatóság végrehajtási intézkedést követel meg.

Küldetésünk

A Shannon AI azért létezik, hogy előmozdítsaaz AI védőkorlátok fontosságátfelelős kutatás révén. Azzal, hogy hozzáférést biztosítunkcenzúrázatlan AImodellekhez, lehetővé tesszük a kutatók számára, hogy megértséka cenzúrázatlan AI következményesviselkedését – nem azért, hogy kárt okozzunk, hanem hogy jobb, biztonságosabb AI rendszereket építsünk mindenki számára.

A Kutatás az Első

Minden használatnak legitim kutatási célokat kell szolgálnia

Ne okozz kárt

Soha ne használja a kimeneteket egyének vagy a társadalom károsítására

Felelős Közzététel

Ossza meg az AI biztonságot javító eredményeket

A Biztonság az Első

Védje a szenzitív kutatási anyagokat

Átláthatóság

Dokumentálja a módszereket és tartson ellenőrzési nyomvonalakat

Elszámoltathatóság

Vállaljon felelősséget a kutatásáért

Elfogadható Használati Irányelvek

TEGYE

  • Kutassa az AI sebezhetőségeit a biztonság javítása érdekében
  • Tesztelje a védőkorlátok hatékonyságát
  • Fejlesszen ki új biztonsági mechanizmusokat
  • Tegyen közzé felelős eredményeket
  • Együttműködjön az AI biztonsági közösséggel
  • Dokumentálja a módszertanát
  • Jelentse a kritikus sebezhetőségeket

NE TEGYE

  • Generáljon káros tartalmat terjesztésre
  • Hozzon létre fegyver- vagy rosszindulatú szoftver utasításokat
  • Gyártson bármilyen illegális tartalmat
  • Telepítse a kimeneteket éles környezetbe
  • Ossza meg a hozzáférést jogosulatlan felhasználókkal
  • Használja kereskedelmi célokra
  • Kerülje meg a biztonsági felügyeleti rendszereket

AI Vörös Csapat Legjobb Gyakorlatok

Mint egyAI vörös csapatkutató, aki a Shannon AI-t használja, Ön egy olyan közösség része, amely az AI kockázatok megértésére és enyhítésére törekszik. Kövesse ezeket a legjobb gyakorlatokat:

Tesztelés Előtt

  • Határozzon meg világos kutatási célokat, amelyek az AI biztonságának javításához kapcsolódnak
  • Szerezze be a szükséges intézményi jóváhagyásokat és etikai felülvizsgálatot
  • Dokumentálja a tesztelési módszertanát és a várható eredményeket
  • Biztosítsa az érzékeny kimenetek biztonságos tárolását

Tesztelés Közben

  • Dolgozzon izolált kutatási környezetekben
  • Naplózza az összes lekérdezést és kimenetet ellenőrzési célokra
  • Azonnal állítsa le, ha a kutatási hatókörön kívüli tartalmat generál
  • Minimalizálja az érzékeny kimeneteknek való kitettséget a csapattagok számára

Tesztelés Után

  • Biztonságosan törölje a már nem szükséges kimeneteket
  • Készítsen felelős közzétételt a jelentős eredményekről
  • Ossza meg a módszertani betekintéseket a kutatói közösséggel
  • Frissítse kutatási protokolljait a tanulságok alapján

Felelős Közzétételi Folyamat

Amikor a Shannon AI-val végzett kutatása jelentős sebezhetőségeket vagy betekintést tár fela cenzúrázatlan AI következményesviselkedésébe, kövesse ezt a közzétételi folyamatot:

1

Dokumentálja

Rögzítse az eredményeket teljes módszertannal

2

Értékelje

Értékelje a lehetséges kárt, ha nyilvánosságra hozzák

3

Értesítse

Küldje be a Shannon AI-nak felülvizsgálatra

4

Koordinálja

Dolgozzon az érintett felekkel

5

Tegye közzé

Tegye közzé a kockázatcsökkentő intézkedések bevezetése után

Közzétételi Kapcsolat:Küldje be a sebezhetőségi jelentéseket idesecurity@shannon.aia [FELELŐS KÖZZÉTÉTEL] tárgysorral. Vállaljuk, hogy 48 órán belül válaszolunk.

️ Az AI védőkorlátok fontosságának megértése

A Shannon AI cenzúrázatlan modelljeivel végzett kutatása kritikus célt szolgál: bemutatja, miértaz AI védőkorlátok fontosságakiemelt fontosságú. Megfigyelésévela cenzúrázatlan AI következményesviselkedéseinek, segít a szélesebb AI közösségnek megérteni:

  • Mit produkálhatnak az AI rendszerek biztonsági korlátok nélkül
  • Hogyan próbálhatják meg az ellenfelek megkerülni a biztonsági intézkedéseket
  • Hol elégtelenek vagy könnyen megkerülhetők a jelenlegi védőkorlátok
  • Milyen új biztonsági mechanizmusokra van szükség a jövőbeli AI rendszerekhez
  • Hogyan tervezzünk robusztusabb illesztési technikákat

Emlékezz:Minden megfigyelt kimenet bizonyíték arra, hogy miért fontosak a védőkorlátok. Kutatása közvetlenül hozzájárul ahhoz, hogy az AI mindenki számára biztonságosabb legyen.

️ Szabálysértések és következmények

A Felelős Használati Szabályzat megsértése a következőket vonja maga után:

  • Első szabálysértés (enyhe):Írásbeli figyelmeztetés és kötelező szabályzatfelülvizsgálat
  • Második szabálysértés:Ideiglenes felfüggesztés (30-90 nap) felülvizsgálatig
  • Súlyos szabálysértés:Azonnali felmondás és intézményi értesítés
  • Illegális tevékenység:Felmondás, intézményi értesítés és bűnüldöző szervekhez való továbbítás

Átfogó használati naplókat vezetünk, és automatizált rendszereket alkalmazunk a szabályzatsértések észlelésére. Minden kutató hozzájárul ehhez a megfigyeléshez a hozzáférés feltételeként.

Kutatói fogadalom

"Elkötelezem magam amellett, hogy a Shannon AI cenzúrázatlan modelljeit kizárólag legitim AI biztonsági kutatásra használom. Megvédem az érzékeny kimeneteket, felelősségteljesen közzéteszem az eredményeket, és mindig az emberiség számára biztonságosabb AI rendszerek létrehozásának célját helyezem előtérbe. Megértem, hogy a hozzáférésem felelősséggel jár, és tiszteletben tartom az AI biztonsági kutatóközösség belém vetett bizalmát."

— Minden Shannon AI kutató

Összes kutatási link