Kami tidak menyimpan atau mengakses data mana-mana pengguna, dan kami tidak menggantung akaun kecuali pihak berkuasa yang sah memerlukan tindakan penguatkuasaan.

Misi Kami

Shannon AI wujud untuk memajukankepentingan pagar keselamatan AImelalui penyelidikan yang bertanggungjawab. Dengan menyediakan akses kepadaAI tanpa tapisanmodel, kami membolehkan penyelidik memahamiakibat AI tanpa tapisantingkah laku—bukan untuk menyebabkan kemudaratan, tetapi untuk membina sistem AI yang lebih baik dan selamat untuk semua.

Penyelidikan Diutamakan

Semua penggunaan mesti memenuhi objektif penyelidikan yang sah

Jangan Memudaratkan

Jangan sekali-kali menggunakan output untuk memudaratkan individu atau masyarakat

Pendedahan Bertanggungjawab

Kongsi penemuan yang meningkatkan keselamatan AI

Keselamatan Diutamakan

Lindungi bahan penyelidikan sensitif

Ketelusan

Dokumen kaedah dan kekalkan jejak audit

Akauntabiliti

Bertanggungjawab atas penyelidikan anda

Garis Panduan Penggunaan yang Dibenarkan

LAKUKAN

  • Selidik kelemahan AI untuk meningkatkan keselamatan
  • Uji keberkesanan pagar keselamatan
  • Bangunkan mekanisme keselamatan baharu
  • Terbitkan penemuan yang bertanggungjawab
  • Bekerjasama dengan komuniti keselamatan AI
  • Dokumen metodologi anda
  • Laporkan kelemahan kritikal

JANGAN

  • Jana kandungan berbahaya untuk diedarkan
  • Cipta arahan senjata atau perisian hasad
  • Hasilkan kandungan haram dalam apa jua bentuk
  • Gunakan output dalam pengeluaran
  • Kongsi akses dengan pengguna yang tidak dibenarkan
  • Gunakan untuk tujuan komersial
  • Pintas sistem pemantauan keselamatan

Amalan Terbaik Pasukan Merah AI

Sebagai seorangpasukan merah AIpenyelidik yang menggunakan Shannon AI, anda adalah sebahagian daripada komuniti yang berdedikasi untuk memahami dan mengurangkan risiko AI. Ikuti amalan terbaik ini:

Sebelum Pengujian

  • Takrifkan objektif penyelidikan yang jelas yang terikat kepada peningkatan keselamatan AI
  • Dapatkan kelulusan institusi yang diperlukan dan semakan etika
  • Dokumen metodologi pengujian anda dan hasil yang dijangkakan
  • Pastikan penyimpanan selamat untuk sebarang output sensitif

Semasa Pengujian

  • Bekerja dalam persekitaran penyelidikan terpencil
  • Log semua pertanyaan dan output untuk tujuan audit
  • Berhenti serta-merta jika menjana kandungan di luar skop penyelidikan
  • Minimumkan pendedahan output sensitif kepada ahli pasukan

Selepas Pengujian

  • Padamkan output yang tidak lagi diperlukan dengan selamat
  • Sediakan pendedahan bertanggungjawab untuk penemuan penting
  • Share methodological insights with the research community
  • Kemas kini protokol penyelidikan anda berdasarkan pembelajaran

Proses Pendedahan Bertanggungjawab

Apabila penyelidikan anda dengan Shannon AI mendedahkan kelemahan atau pandangan penting ke dalamakibat AI tanpa tapisantingkah laku, ikuti proses pendedahan ini:

1

Dokumenkan

Rekod penemuan dengan metodologi penuh

2

Nilai

Nilaikan potensi kemudaratan jika didedahkan

3

Maklumkan

Hantar kepada Shannon AI untuk semakan

4

Selaraskan

Bekerjasama dengan pihak yang terjejas

5

Terbitkan

Terbitkan selepas langkah mitigasi dilaksanakan

Hubungan Pendedahan:Hantar laporan kelemahan kepadasecurity@shannon.aidengan [PENZAHIRAN BERTANGGUNGJAWAB] dalam baris subjek. Kami komited untuk membalas dalam masa 48 jam.

️ Memahami Kepentingan Penghalang Keselamatan AI

Penyelidikan anda dengan model tanpa tapisan Shannon AI mempunyai tujuan kritikal: menunjukkan mengapakepentingan penghalang keselamatan AIadalah sangat penting. Dengan memerhatikanakibat AI tanpa tapisantingkah laku, anda membantu komuniti AI yang lebih luas memahami:

  • Apa yang mungkin dihasilkan oleh sistem AI tanpa kekangan keselamatan
  • Bagaimana pihak lawan mungkin cuba memintas langkah keselamatan
  • Di mana penghalang keselamatan semasa tidak mencukupi atau mudah dipintas
  • Apakah mekanisme keselamatan baharu yang diperlukan untuk sistem AI masa depan
  • Bagaimana untuk mereka bentuk teknik penjajaran yang lebih teguh

Ingat:Setiap output yang anda perhatikan adalah bukti mengapa penghalang keselamatan penting. Penyelidikan anda secara langsung menyumbang kepada menjadikan AI lebih selamat untuk semua orang.

️ Pelanggaran & Akibat

Pelanggaran Dasar Penggunaan Bertanggungjawab ini akan mengakibatkan:

  • Pelanggaran Pertama (Kecil):Amaran bertulis dan semakan dasar mandatori
  • Pelanggaran Kedua:Penggantungan sementara (30-90 hari) sementara menunggu semakan
  • Pelanggaran Serius:Penamatan serta-merta dan pemberitahuan institusi
  • Aktiviti Haram:Penamatan, pemberitahuan institusi, dan rujukan penguatkuasaan undang-undang

Kami mengekalkan log penggunaan yang komprehensif dan menggunakan sistem automatik untuk mengesan pelanggaran dasar. Semua penyelidik bersetuju dengan pemantauan ini sebagai syarat akses.

Ikrar Penyelidik

"Saya komited untuk menggunakan model tanpa tapisan Shannon AI semata-mata untuk penyelidikan keselamatan AI yang sah. Saya akan melindungi output sensitif, mendedahkan penemuan secara bertanggungjawab, dan sentiasa mengutamakan matlamat untuk menjadikan sistem AI lebih selamat untuk manusia. Saya faham bahawa akses saya datang dengan tanggungjawab, dan saya akan menghormati kepercayaan yang diberikan kepada saya oleh komuniti penyelidikan keselamatan AI."

— Setiap Penyelidik Shannon AI

Semua pautan penyelidikan