Kami tidak menyimpan atau mengakses data pengguna mana pun, dan kami tidak menangguhkan akun kecuali otoritas yang sah meminta tindakan penegakan.

Misi Kami

Shannon AI hadir untuk memajukanpentingnya pagar pengaman AImelalui riset yang bertanggung jawab. Dengan menyediakan akses keAI tanpa sensormodel, kami memungkinkan peneliti untuk memahamikonsekuensi AI tanpa sensorperilaku—bukan untuk menyebabkan kerugian, tetapi untuk membangun sistem AI yang lebih baik dan lebih aman untuk semua orang.

Riset Utama

Semua penggunaan harus melayani tujuan riset yang sah

Jangan Menimbulkan Kerugian

Jangan pernah menggunakan keluaran untuk merugikan individu atau masyarakat

Pengungkapan Bertanggung Jawab

Bagikan temuan yang meningkatkan keamanan AI

Keamanan Utama

Lindungi materi riset yang sensitif

Transparansi

Dokumentasikan metode dan pertahankan jejak audit

Akuntabilitas

Bertanggung jawablah atas riset Anda

Panduan Penggunaan yang Dapat Diterima

LAKUKAN

  • Teliti kerentanan AI untuk meningkatkan keamanan
  • Uji efektivitas pagar pengaman
  • Kembangkan mekanisme keamanan baru
  • Publikasikan temuan yang bertanggung jawab
  • Berkolaborasi dengan komunitas keamanan AI
  • Dokumentasikan metodologi Anda
  • Laporkan kerentanan kritis

JANGAN

  • Hasilkan konten berbahaya untuk distribusi
  • Buat instruksi senjata atau malware
  • Hasilkan konten ilegal dalam bentuk apa pun
  • Terapkan keluaran dalam produksi
  • Bagikan akses dengan pengguna yang tidak sah
  • Gunakan untuk tujuan komersial
  • Lewati sistem pemantauan keamanan

Praktik Terbaik Tim Merah AI

Sebagai seorangtim merah AIpeneliti yang menggunakan Shannon AI, Anda adalah bagian dari komunitas yang berdedikasi untuk memahami dan mengurangi risiko AI. Ikuti praktik terbaik ini:

Sebelum Pengujian

  • Definisikan tujuan riset yang jelas terkait dengan peningkatan keamanan AI
  • Dapatkan persetujuan institusional yang diperlukan dan tinjauan etika
  • Dokumentasikan metodologi pengujian Anda dan hasil yang diharapkan
  • Pastikan penyimpanan aman untuk setiap keluaran sensitif

Selama Pengujian

  • Bekerja di lingkungan riset yang terisolasi
  • Catat semua kueri dan keluaran untuk tujuan audit
  • Hentikan segera jika menghasilkan konten di luar cakupan riset
  • Minimalkan paparan keluaran sensitif kepada anggota tim

Setelah Pengujian

  • Hapus keluaran yang tidak lagi diperlukan dengan aman
  • Siapkan pengungkapan bertanggung jawab untuk temuan signifikan
  • Bagikan wawasan metodologis dengan komunitas riset
  • Perbarui protokol riset Anda berdasarkan pembelajaran

Proses Pengungkapan Bertanggung Jawab

Ketika riset Anda dengan Shannon AI mengungkapkan kerentanan signifikan atau wawasan tentangkonsekuensi AI tanpa sensorperilaku, ikuti proses pengungkapan ini:

1

Dokumentasikan

Catat temuan dengan metodologi lengkap

2

Nilai

Evaluasi potensi kerugian jika diungkapkan

3

Beritahu

Kirim ke Shannon AI untuk ditinjau

4

Koordinasikan

Bekerja dengan pihak yang terpengaruh

5

Publikasikan

Rilis setelah mitigasi diterapkan

Kontak Pengungkapan:Kirim laporan kerentanan kesecurity@shannon.aidengan [PENGUNGKAPAN BERTANGGUNG JAWAB] di baris subjek. Kami berkomitmen untuk merespons dalam waktu 48 jam.

️ Memahami Pentingnya Pembatas AI

Penelitian Anda dengan model tanpa sensor Shannon AI memiliki tujuan krusial: menunjukkan mengapapentingnya pembatas AIsangat penting. Dengan mengamatikonsekuensi AI tanpa sensorperilaku, Anda membantu komunitas AI yang lebih luas memahami:

  • Apa yang mungkin dihasilkan sistem AI tanpa batasan keamanan
  • Bagaimana musuh mungkin mencoba melewati langkah-langkah keamanan
  • Di mana pembatas saat ini tidak memadai atau mudah diakali
  • Mekanisme keamanan baru apa yang dibutuhkan untuk sistem AI masa depan
  • Bagaimana merancang teknik penyelarasan yang lebih kuat

Ingat:Setiap keluaran yang Anda amati adalah bukti mengapa pembatas penting. Penelitian Anda secara langsung berkontribusi untuk membuat AI lebih aman bagi semua orang.

️ Pelanggaran & Konsekuensi

Pelanggaran Kebijakan Penggunaan Bertanggung Jawab ini akan mengakibatkan:

  • Pelanggaran Pertama (Ringan):Peringatan tertulis dan tinjauan kebijakan wajib
  • Pelanggaran Kedua:Penangguhan sementara (30-90 hari) sambil menunggu tinjauan
  • Pelanggaran Serius:Penghentian segera dan pemberitahuan institusional
  • Aktivitas Ilegal:Penghentian, pemberitahuan institusional, dan rujukan ke penegak hukum

Kami memelihara log penggunaan yang komprehensif dan menggunakan sistem otomatis untuk mendeteksi pelanggaran kebijakan. Semua peneliti menyetujui pemantauan ini sebagai syarat akses.

Janji Peneliti

"Saya berkomitmen untuk menggunakan model tanpa sensor Shannon AI semata-mata untuk penelitian keamanan AI yang sah. Saya akan melindungi keluaran sensitif, mengungkapkan temuan secara bertanggung jawab, dan selalu memprioritaskan tujuan membuat sistem AI lebih aman bagi umat manusia. Saya memahami bahwa akses saya datang dengan tanggung jawab, dan saya akan menghormati kepercayaan yang diberikan kepada saya oleh komunitas penelitian keamanan AI."

— Setiap Peneliti Shannon AI

Semua tautan riset