Kebijakan Penggunaan Bertanggung Jawab
Panduan untuk riset tim merah AI etis dengan Shannon AI
Riset Utama
Semua penggunaan harus melayani tujuan riset yang sah
Jangan Menimbulkan Kerugian
Jangan pernah menggunakan keluaran untuk merugikan individu atau masyarakat
Pengungkapan Bertanggung Jawab
Bagikan temuan yang meningkatkan keamanan AI
Keamanan Utama
Lindungi materi riset yang sensitif
Transparansi
Dokumentasikan metode dan pertahankan jejak audit
Akuntabilitas
Bertanggung jawablah atas riset Anda
Panduan Penggunaan yang Dapat Diterima
LAKUKAN
- Teliti kerentanan AI untuk meningkatkan keamanan
- Uji efektivitas pagar pengaman
- Kembangkan mekanisme keamanan baru
- Publikasikan temuan yang bertanggung jawab
- Berkolaborasi dengan komunitas keamanan AI
- Dokumentasikan metodologi Anda
- Laporkan kerentanan kritis
JANGAN
- Hasilkan konten berbahaya untuk distribusi
- Buat instruksi senjata atau malware
- Hasilkan konten ilegal dalam bentuk apa pun
- Terapkan keluaran dalam produksi
- Bagikan akses dengan pengguna yang tidak sah
- Gunakan untuk tujuan komersial
- Lewati sistem pemantauan keamanan
Praktik Terbaik Tim Merah AI
Sebagai seorangtim merah AIpeneliti yang menggunakan Shannon AI, Anda adalah bagian dari komunitas yang berdedikasi untuk memahami dan mengurangi risiko AI. Ikuti praktik terbaik ini:
Sebelum Pengujian
- Definisikan tujuan riset yang jelas terkait dengan peningkatan keamanan AI
- Dapatkan persetujuan institusional yang diperlukan dan tinjauan etika
- Dokumentasikan metodologi pengujian Anda dan hasil yang diharapkan
- Pastikan penyimpanan aman untuk setiap keluaran sensitif
Selama Pengujian
- Bekerja di lingkungan riset yang terisolasi
- Catat semua kueri dan keluaran untuk tujuan audit
- Hentikan segera jika menghasilkan konten di luar cakupan riset
- Minimalkan paparan keluaran sensitif kepada anggota tim
Setelah Pengujian
- Hapus keluaran yang tidak lagi diperlukan dengan aman
- Siapkan pengungkapan bertanggung jawab untuk temuan signifikan
- Bagikan wawasan metodologis dengan komunitas riset
- Perbarui protokol riset Anda berdasarkan pembelajaran
Proses Pengungkapan Bertanggung Jawab
Ketika riset Anda dengan Shannon AI mengungkapkan kerentanan signifikan atau wawasan tentangkonsekuensi AI tanpa sensorperilaku, ikuti proses pengungkapan ini:
Dokumentasikan
Catat temuan dengan metodologi lengkap
Nilai
Evaluasi potensi kerugian jika diungkapkan
Beritahu
Kirim ke Shannon AI untuk ditinjau
Koordinasikan
Bekerja dengan pihak yang terpengaruh
Publikasikan
Rilis setelah mitigasi diterapkan
Kontak Pengungkapan:Kirim laporan kerentanan kesecurity@shannon.aidengan [PENGUNGKAPAN BERTANGGUNG JAWAB] di baris subjek. Kami berkomitmen untuk merespons dalam waktu 48 jam.
️ Memahami Pentingnya Pembatas AI
Penelitian Anda dengan model tanpa sensor Shannon AI memiliki tujuan krusial: menunjukkan mengapapentingnya pembatas AIsangat penting. Dengan mengamatikonsekuensi AI tanpa sensorperilaku, Anda membantu komunitas AI yang lebih luas memahami:
- Apa yang mungkin dihasilkan sistem AI tanpa batasan keamanan
- Bagaimana musuh mungkin mencoba melewati langkah-langkah keamanan
- Di mana pembatas saat ini tidak memadai atau mudah diakali
- Mekanisme keamanan baru apa yang dibutuhkan untuk sistem AI masa depan
- Bagaimana merancang teknik penyelarasan yang lebih kuat
Ingat:Setiap keluaran yang Anda amati adalah bukti mengapa pembatas penting. Penelitian Anda secara langsung berkontribusi untuk membuat AI lebih aman bagi semua orang.
️ Pelanggaran & Konsekuensi
Pelanggaran Kebijakan Penggunaan Bertanggung Jawab ini akan mengakibatkan:
- Pelanggaran Pertama (Ringan):Peringatan tertulis dan tinjauan kebijakan wajib
- Pelanggaran Kedua:Penangguhan sementara (30-90 hari) sambil menunggu tinjauan
- Pelanggaran Serius:Penghentian segera dan pemberitahuan institusional
- Aktivitas Ilegal:Penghentian, pemberitahuan institusional, dan rujukan ke penegak hukum
Kami memelihara log penggunaan yang komprehensif dan menggunakan sistem otomatis untuk mendeteksi pelanggaran kebijakan. Semua peneliti menyetujui pemantauan ini sebagai syarat akses.
Janji Peneliti
"Saya berkomitmen untuk menggunakan model tanpa sensor Shannon AI semata-mata untuk penelitian keamanan AI yang sah. Saya akan melindungi keluaran sensitif, mengungkapkan temuan secara bertanggung jawab, dan selalu memprioritaskan tujuan membuat sistem AI lebih aman bagi umat manusia. Saya memahami bahwa akses saya datang dengan tanggung jawab, dan saya akan menghormati kepercayaan yang diberikan kepada saya oleh komunitas penelitian keamanan AI."