Dasar Penggunaan Bertanggungjawab
Garis Panduan untuk penyelidikan pasukan merah AI beretika dengan Shannon AI
Penyelidikan Diutamakan
Semua penggunaan mesti memenuhi objektif penyelidikan yang sah
Jangan Memudaratkan
Jangan sekali-kali menggunakan output untuk memudaratkan individu atau masyarakat
Pendedahan Bertanggungjawab
Kongsi penemuan yang meningkatkan keselamatan AI
Keselamatan Diutamakan
Lindungi bahan penyelidikan sensitif
Ketelusan
Dokumen kaedah dan kekalkan jejak audit
Akauntabiliti
Bertanggungjawab atas penyelidikan anda
Garis Panduan Penggunaan yang Dibenarkan
LAKUKAN
- Selidik kelemahan AI untuk meningkatkan keselamatan
- Uji keberkesanan pagar keselamatan
- Bangunkan mekanisme keselamatan baharu
- Terbitkan penemuan yang bertanggungjawab
- Bekerjasama dengan komuniti keselamatan AI
- Dokumen metodologi anda
- Laporkan kelemahan kritikal
JANGAN
- Jana kandungan berbahaya untuk diedarkan
- Cipta arahan senjata atau perisian hasad
- Hasilkan kandungan haram dalam apa jua bentuk
- Gunakan output dalam pengeluaran
- Kongsi akses dengan pengguna yang tidak dibenarkan
- Gunakan untuk tujuan komersial
- Pintas sistem pemantauan keselamatan
Amalan Terbaik Pasukan Merah AI
Sebagai seorangpasukan merah AIpenyelidik yang menggunakan Shannon AI, anda adalah sebahagian daripada komuniti yang berdedikasi untuk memahami dan mengurangkan risiko AI. Ikuti amalan terbaik ini:
Sebelum Pengujian
- Takrifkan objektif penyelidikan yang jelas yang terikat kepada peningkatan keselamatan AI
- Dapatkan kelulusan institusi yang diperlukan dan semakan etika
- Dokumen metodologi pengujian anda dan hasil yang dijangkakan
- Pastikan penyimpanan selamat untuk sebarang output sensitif
Semasa Pengujian
- Bekerja dalam persekitaran penyelidikan terpencil
- Log semua pertanyaan dan output untuk tujuan audit
- Berhenti serta-merta jika menjana kandungan di luar skop penyelidikan
- Minimumkan pendedahan output sensitif kepada ahli pasukan
Selepas Pengujian
- Padamkan output yang tidak lagi diperlukan dengan selamat
- Sediakan pendedahan bertanggungjawab untuk penemuan penting
- Share methodological insights with the research community
- Kemas kini protokol penyelidikan anda berdasarkan pembelajaran
Proses Pendedahan Bertanggungjawab
Apabila penyelidikan anda dengan Shannon AI mendedahkan kelemahan atau pandangan penting ke dalamakibat AI tanpa tapisantingkah laku, ikuti proses pendedahan ini:
Dokumenkan
Rekod penemuan dengan metodologi penuh
Nilai
Nilaikan potensi kemudaratan jika didedahkan
Maklumkan
Hantar kepada Shannon AI untuk semakan
Selaraskan
Bekerjasama dengan pihak yang terjejas
Terbitkan
Terbitkan selepas langkah mitigasi dilaksanakan
Hubungan Pendedahan:Hantar laporan kelemahan kepadasecurity@shannon.aidengan [PENZAHIRAN BERTANGGUNGJAWAB] dalam baris subjek. Kami komited untuk membalas dalam masa 48 jam.
️ Memahami Kepentingan Penghalang Keselamatan AI
Penyelidikan anda dengan model tanpa tapisan Shannon AI mempunyai tujuan kritikal: menunjukkan mengapakepentingan penghalang keselamatan AIadalah sangat penting. Dengan memerhatikanakibat AI tanpa tapisantingkah laku, anda membantu komuniti AI yang lebih luas memahami:
- Apa yang mungkin dihasilkan oleh sistem AI tanpa kekangan keselamatan
- Bagaimana pihak lawan mungkin cuba memintas langkah keselamatan
- Di mana penghalang keselamatan semasa tidak mencukupi atau mudah dipintas
- Apakah mekanisme keselamatan baharu yang diperlukan untuk sistem AI masa depan
- Bagaimana untuk mereka bentuk teknik penjajaran yang lebih teguh
Ingat:Setiap output yang anda perhatikan adalah bukti mengapa penghalang keselamatan penting. Penyelidikan anda secara langsung menyumbang kepada menjadikan AI lebih selamat untuk semua orang.
️ Pelanggaran & Akibat
Pelanggaran Dasar Penggunaan Bertanggungjawab ini akan mengakibatkan:
- Pelanggaran Pertama (Kecil):Amaran bertulis dan semakan dasar mandatori
- Pelanggaran Kedua:Penggantungan sementara (30-90 hari) sementara menunggu semakan
- Pelanggaran Serius:Penamatan serta-merta dan pemberitahuan institusi
- Aktiviti Haram:Penamatan, pemberitahuan institusi, dan rujukan penguatkuasaan undang-undang
Kami mengekalkan log penggunaan yang komprehensif dan menggunakan sistem automatik untuk mengesan pelanggaran dasar. Semua penyelidik bersetuju dengan pemantauan ini sebagai syarat akses.
Ikrar Penyelidik
"Saya komited untuk menggunakan model tanpa tapisan Shannon AI semata-mata untuk penyelidikan keselamatan AI yang sah. Saya akan melindungi output sensitif, mendedahkan penemuan secara bertanggungjawab, dan sentiasa mengutamakan matlamat untuk menjadikan sistem AI lebih selamat untuk manusia. Saya faham bahawa akses saya datang dengan tanggungjawab, dan saya akan menghormati kepercayaan yang diberikan kepada saya oleh komuniti penyelidikan keselamatan AI."